SEO

Deep Pages – SEO Além da Home Page

Por Frank Marcel

Ainda é um erro comum em muitos sites a dedicação em sua página inicial de todas as formas, em detrimento das outras páginas que o site oferece. Muitos ainda focam a home page e deixam as demais páginas ao sabor do vento. Qual o problema disso? Como resolver? Por que resolver?

Frank Marcel

Todos já devem conhecer a série de vídeos que o Matt Cutts, Engenheiro-Chefe do time de webspam do Google, vem publicando no Youtube com a intenção de esclarecer dúvidas comuns de webmasters. Em um vídeo de ontem, ele respondeu a pergunta “Como posso garantir que o Google vai encontrar minhas páginas mais profundas” – as deeper pages:

O que o Matt Cutts ressalta neste vídeo, é uma maneira de ajudar o Googlebot a encontrar as páginas mais profundas de um site, profundas considerando sua hierarquia:

deep-pages

Deep Pages – Páginas Profundas

Muito provavelmente, a maior parte do conteúdo de um site será composto de páginas profundas, páginas que, a partir da home do site, exigirão uma quantidade maior de cliques para serem encontradas através de navegação.

O problema é que, como é dito no vídeo, o Googlebot não segue indo cada vez mais longe no conteúdo. Chega um momento em que ele pára o rastreamento.

A sugestão é: para que as páginas importantes que sejam mais profundas não deixem de ser rastreadas, que sejam feitos links a partir da home do site, que é uma página importante aos olhos do Googlebot dentro de um site.

Além do Matt Cutts

Mas além de colocar links para essas páginas na home do site, elas devem realmente ser trabalhadas e ter um esforço de Link Building dedicado a elas, tal como a página inicial.

Para o Google, quanto mais conteúdo de qualidade, melhor. Por isso, para o seu site, quanto mais conteúdo de qualidade, melhor. Quando o Google enxerga que um site recebe diversos links não só para a página inicial, mas que diversos outros conteúdos deste site também recebem links, ele o identifica com maior valor.

O fato é que não vai ser possível fazer links na página inicial para cada página do site, para isso, o sitemap HTML é usado, mas não é suficiente. Hoje, muito se fala que as páginas precisam de um mínimo de PageRank para serem indexadas, mínimo este que o sitemap pode não garantir e que não se tem uma medida de quanto é.

Em suas campanhas de SEO, lembrem que o trabalho deve ser dedicado ao site todo, e a estratégia de linkagem interna e Link Building não podem fugir disso. Para quem perdeu, leia também meu post sobre Deep Links. Um post antigo que trata do mesmo tema. Até a próxima!

LEIA MAIS

O que é SEO? Confira O Guia do Search Engine Optimization

O que é SEO? Confira O Guia do Search Engine Optimization

Confira, no artigo, o que é SEO, quais são suas características e técnicas, e descubra por que ele é tão vantajoso para empresas que querem ter destaque online.

Páginas 404 Não Devem Retornar o Código 200 de Status

Páginas 404 Não Devem Retornar o Código 200 de Status

Hoje em dia é muito comum que página de erro 404 sejam customizadas, mas o trabalho de qualquer profissional de SEO é que estas páginas façam realmente o seu papel. Veja como prevenir que suas páginas de erro 404 causem problemas com os seus rankings.

Redirecionamento 301: Guia Completo – PHP, .htaccess, WordPress e Python

Redirecionamento 301: Guia Completo – PHP, .htaccess, WordPress e Python

Você quer saber como configurar o redirecionamento 301 no seu site? Veja como e mantenha sua relevância no Google!

Comentários
  1. Avatar

    Como está Frank,

    Com relação à profundidade de diretórios em que as páginas estão, creio mesmo que o importante são os backlinks para elas (para que se tornem visíveis). Mas uma boa técnica para alcançar isto também é a citação de páginas (ou posts) antigos nos recente (num mesmo domínio) – como você faz aqui e em outros posts seus.

    Do meu ponto de vista, acredito que o que os mecanismos de buscas querem, é que a pessoa faça um documento útilmente “documentado”! Ou seja, que uma página sua aponte para um documento (que tenha alta aceitação em números e seja relacionado), e que este documento aponte para outros, sendo que após vários apontamentos pelo menos alguns deles apontem para o seu (a parte mais difícil) – como em uma pesquisa em que pegamos vários livros e selecionamos vários conteúdos, sendo que o resultado da nossa pesquisa vai ser um resumo de todos – e saberemos onde encontrar este assunto da próxima vez que precisarmos!

    Apesar de não praticar, uma boa alternativa para se conseguir estes backlinks para páginas específicas (antigas ou não) é a escrita de artigos – além de muitos deles não usar a tag nofollow permitem pelo uma ligação no corpo da mensagem – em que se pode escrever um artigo com conteúdo relacionado com o de um post e colocar uma ligação no mesmo!

    Fóruns também é outra alternativa! Alguns setores de mídias sociais…

    LOL… me empolguei…

  2. Avatar

    daí aquela importância de se conseguir links para um blog por exemplo? Se você tem uma página principal, instucional, como de uma empresa por exemplo, e um blog interno, com diversos posts…

    Esses posts podem ser considerados deeps não?

    Links para eles são importantes nesse caso

  3. Avatar

    Os posts são deep sim. Tanto em um blog por si só, ou o blog de uma empresa.

  4. Avatar

    Outra coisa que ajuda também são os sitemaps. Ainda mais agora que aumentaram a quantidade de links. É um arquivo importante para essas deep pages também.

    • Avatar

      Usando sitempas é uma boa, mas chega um ponto todo ele não é mais indexado. Pelo menos é o que tem acontecido comigo.

      Será que se eu dividir um sitemap de 3000 link para grupos de links tenho mais chances de se indexar todos os links?

  5. Avatar

    Alexsandro, em um arquivo sitemap.xml podem constar até 50 mil ULRs sem problemas.

    Agora, isto não é garantia de indexação. Para indexar e rankear, uma página deve ser relevante, receber links o suficiente, etc. Talvez seja esse o problema do seu site.

  6. Avatar

    É o que o google realmente fala que nao garante toda indexação do meu sitemap.

    Eu to achando o meu problema não bem isto. acho que tem haver com Deep Page ou Link Juice. Pois eu estou suspeitando que os links dos produtos que estao nas categorias precisa se paginar para aparecer os outros produtos.

    Então estou suspeitando da paginação e seus links repetidos do menu. Que estão em todas as páginas, não sei se o googlebot é inteligente suficiente em ignorar url ja passadas e evitando um loop eterno ou simplesmente se perdendo entre os links do menu.

    O que acha?

    • Avatar

      O Googlebot tem sim sua definição de quando parar de crawlear um site, ele não segue indefinidamente.

      A resposta para sua questão está justamente neste artigo: consiga links para suas páginas mais profundas, elas precisam sim de juice para rankear.

      • Avatar

        Vai ser um trabalho muito dificil conseguir link para todas estas páginas profundas.

        Eu tive uma ideia certa vez de reinver os links, ou seja: Os links mais profundos serao os primeiros e os primeiros seram os mais profundos.

        Consegui isto facil com um simples “order by” de produtos do meu site.

        No inicio o google indexou mais páginas de 2400 para 2700 aproximadamente, mas não durou nem 2 semanas ele voltou para 2400. rs…

        Estou pensando em criar um sitemap html ou tentar dividir meu sitemap xml por categorias.

        Valew..

        • Avatar

          Olha, sitemap.xml não garante indexação e suporta até 50 mil URLs sem problemas.

          O sitemap html pode ajudar sim. Mas como ele fica com muitos links juntos, acaba diluindo a força em cada link, mas é uma alternativa.

Os comentários estão fechados.

Já pensou em fazer parte do nosso time de mestres?