Visitas freqüentes e regulares dos spiderbots ao seu site é um bom sinal que ele vai bem. Isso indica certa confiança e qualidade do site. Os spiderbots são computadores que “varrem” a internet e armazenam o conteúdo dos sites, essa tarefa também pode ser chamada de webcrawl. Depois disso as search engines como o google, msn e yahoo aplicam seus algoritmos e mostram o resultado da sua busca para cada keyword. Algumas práticas de SEO “forçam” o googlebot a visitar seu site mais frequentemente:
1. Atualize seu conteúdo frequentemente e regularmente. O googlebot depois de várias visitas ao seu site “aprende” a visitá-lo, ele tem uma idéia de qual a freqüência que o site é atualizado. Por isso o ideal é manter uma regularidade na atualização do conteúdo. O outro ponto é a freqüência de atualização, se você não pode atualizá-lo diariamente, faça pelo menos três vezes por semana.
2. Verifique se seu servidor funciona corretamente. Não esqueça do uptime, que é o tempo em que o servidor consegue ficar no ar, e utilizando o Google Webmaster Tools você pode ver quais páginas foram inalcançáveis pelo googlebot. Duas ferramentas de monitoração recomendadas são Pingdom e Mon.itor.us.
3. Verifique o tempo de carregamento das páginas. Os spiderbots tem um tempo limitado para carregar as páginas então se você tem imagens ou documentos gigantes eles não gastaram muito tempo tentando abri-las e a deixarão.
4. Cheque a estrutura interna de links. Tenha certeza que você não tem conteúdo duplicado, veja se algumas páginas são acessadas por diferentes URLs.
5. Consiga mais backlinks. Os spiderbots visitando outros sites irão encontrar um link pra você e visitarão seu site com mais freqüência.
6. Ajuste a velocidade de crawleamento no google webmaster tools se você achar necessário.
7. Tenha um sitemap. Alguns webmasters já disseram que aumentaram a taxa de webcrawl depois da adição do sitemap.
8. Tenha certeza que seu servidor responde corretamente aos erros. Não deixe o spiderbot sem saber o que está acontecendo.
9. Tenha title e mata tags únicas para cada página.
10. Monitore o taxa de webcrawl e veja o que funciona e o que não pelo google webmaster tools.
Se ficou com alguma duvida veja o glossário de SEO ou pergunte. Abraços.
Fonte: SearchEngineJournal
Dúvida:
Tendo um “sitemap” que aumenta mensalmente, digamos 5 páginas/mês é preciso re-envia-lo para no Google Webmaster e Live.com Webmaster ?
Ou os Robots desses buscadores e de outros identificam a atualização e a atualizam na ferramenta?
Ótimo post !!!
Olá Demétrios, pode ficar despreocupado que o bots acharão suas novas páginas no sitemap sem a necessidade de enviá-los ao Google e Live Webmaster.
Abraços.
Pertinente o post, é preciso estar atento a estas e outras dicas afim de que todas as páginas do seu website sejam indexadas e para que os spiders acessem suas páginas com mais frequencia possível.