Olá pessoal,
Como alguns de vocês sabem, na semana passada estive no SMX Advanced 2010 em Seattle, onde presenciei um painel que discutia a diferença entre os algoritmos do Google e do Bing. Para a minha felicidade, pude presenciar uma discussão de alto nível e com muita informação sobre o mercado.
Neste painel, o Rand Fishkin do SEOmoz apresentou o seu estudo de correlações sobre os algoritmos do Google e Bing, o qual também foi postado no blog do SEOmoz.
A Pesquisa
O objetivo da pesquisa foi analisar mais de 11 mil resultados de busca do Google e do Bing a fim de determinar como os diferentes algoritmos se comportam. Para isso, o time do SEOmoz fez uso de estatísticas para tirar algumas conclusões dos dados colhidos. Os principais pontos da pesquisa foram:
- O poder de linkagem (tanto externa quanto interna) possuem muito mais correlação com rankings do que elementos on-page ou propriedades relacionadas à domínio;
- A ocorrência exata possui uma forte influência;
- O Google e o Bing se comportam de modo muito similar – criar duas páginas, onde cada uma foca um search engine diferente pode ser perda de tempo;
- O Bing está se aproximando muito do comportamento do Google ao passar do tempo.
Existem diversos pontos mais específicos no decorrer do estudo, então convido vocês a lerem o artigo completo.
Contestação
Como sempre, no mercado, sempre que você produz algo, algumas pessoas contestam e outras admiram o trabalho, independente se concordam ou não. No caso deste estudo do SEOmoz, um artigo criado pelo Ted Dziuba contesta a qualidade da pesquisa alegando que no ramo científico, dados de correlação de .35 são considerados muito ruins e quase nunca publicados.
O artigo foi enviado para o Sphinn, onde mais comentários foram feitos à favor e contra o estudo.
Particularidades no Estudo do SEOmoz
Na minha visão, a contestação não é completamente válida por se tratar de um profissional (Ted Dziuba) não envolvido em SEO, o qual não considera as nossas condições. Para os que não se atentaram ao detalhe, o estudo do SEOmoz possui algumas particularidades: primeiro, ele é baseado nos dados colhidos através de palavras-chave fornecidas pelo Adwords, ou seja, palavras que já tem um bom foco de profissionais nos EUA.
Um outro ponto importante é que em análise de links externos, são utilizados os dados do índice da Linkscape, que é o índice desenvolvido pelo SEOmoz para analisar a Internet e como ela se relaciona. Pela página da Open Site Explorer e pelo último artigo do SEOmoz, sabemos que o índice possui cerca de 430 bilhões de links. Comparando com a última informação pública do Google, em 2008 eles possuíam cerca de 1 trilhão de links indexados. Baseado nestes dados podemos ver como os dados do SEOmoz refletem apenas uma porção de toda a Internet.
Em termos de correlação, em sua palestra no SMX Advanced, o Rand Fishkin afirmou que eles tem ciência de que os valores baixos de correlação são ruins, mas o ponto é que valores próximos de .35 são os melhores obtidos até hoje na área.
Aproveitando Pontos do Estudo
Apesar de suas particularidades, um profissional de SEO deve ter a capacidade de tirar proveito de qualquer informação que aparece no mercado, principalmente quando se trata de empresas que tem respaldo no mercado. Nesse estudo publicado, é muito importante observar as informações que tem baixa correlação (negativas no caso) e assim comparar com o que você já viu em seus experimentos.
No caso de partes do estudo com correlação positiva, aproximando-se de .35, o interessante é entender que são fatores com uma aproximação boa (no nosso mercado) e assim você pode testá-las antes de outras com menor correlação.
Entedeu aqui o ponto? O estudo é apenas um direcionador de esforços, possibilitando a você, profissional de SEO, entender o que testar primeiro e não olhar o estudo como algo que você deva fazer cegamente.
Aproveite sabiamente os estudos e dados que são publicados no nosso mercado, pois eles podem contribuir de uma forma ou de outra para todo o trabalho que você vem desempenhando para os seus clientes ou na sua empresa.
E vocês, o que acharam do estudo e da discussão? Fico no aguardo de mais pontos de vista.
Um abraço e até a próxima!
Créditos da Imagem: chop1n
Olá Fábio, como discutimos ontem no twitter o papel do SEO é tentar entender por fora a compreensão dos algorítimos do Google uma vez que esses são patentes e não temos acesso. Precisamos de estudos e como em qualquer advinhação, cometemos erros e estamos propícios a isso.
No meio dos erros, também aparecem acertos. E só acerta quem arrisca.
Acho que o SEOMOZ tem suas falhas, como qualquer outra empresa, porém, inova e arrisca!
Sabemos que falar de Information Retrieval é complicado e existe muita chutação por grande parte da comunidade SEO mundial inclusive seomoz. Porém, que outro mecanismo temos a não ser testes?
Em um mercado de competição extremas nas SERP’s coisas banais que vemos aqui no Brasil não funcionam. Lá, o pessoal tem que descobrir coisas novas e acho que quanto chega nesse ponto profissionais precisam ter muito mais de Tecnologia nas veias do que Análise ou Marketing.
Essa talvez seja a bronca dos profissionais de IR com o seomoz em si. Porém, apesa rdo SEOMOZ ter começado errando algumas coisas como Latent Semantic Indexing, Keywrod Desntiy ou até mesmo erros de conceitos que o próprio Aaron Wall já pisou na bola como Inverse Document Frequency entre outras cagadas históricas que SEO’s já cometeram com tecnologia, acho que estamos propícios a isso.
Também não tiro a razão, se um profissional de SEO quer ter respaldo no que fala tem que entender de tecnologia, tem que saber que algorítimos são feitos de matemática e que isso conta sim na hora da relevância.
E é importante conduzir testes com responsabilidade. Testes podem enganar.
Por fim eu acredito que o SEOMOZ hoje é outra empresa formadapor profissionais de gabarito em Information Retrieval e não é a toa que temos ferramentas hoje como Open Site Explorer, Linkscape etc. Eles aprenderam com erros e cresceram. E concordo quando você diz que um estudo é uma amostra.
Poderíamos comparar aqui com pesquisas de mercado.
[‘]s Mauricio
é Maurício, concordo com seu ponto de vista
Foi a 1ª vez que vi um estudo sobre TLD de forma mais intensa. Concordo c/ muita coisa que tem lá. Pelo que já tinha visto antes e já vi em algumas análises, algumas informações são diferentes. O “lance” do pior TLD ser o .edu foi o que mais espantou. Até onde sei, o .info sempre foi a pior opção.
Um ponto que deve ter ser levado em consideração (isso não vi no estudo) é que o Google faz as geolocalizações. Exemplo: um TLD .com.br é melhor do que um .com para sites brasileiros, além disso dá p/ ver a evolução do buscadores na região, etc., etc.. O estudo falou sobre isso? Não lembro de ter visto…
Fabio,
tenho a mesma visão que você, todo estudo é valido e de alguma maneira vai ajudar o profissional de SEO, mesmo que seja um estudo limitado de certa maneira.
No caso desse do SEOmoz acho super valido, li e recomendo, ja que se trata de um estudo da SEOmoz. Podem ter certeza que é valido e vai ajudar.
Abs, @renatovitorseo
Muito boa a análise.
Um dúvida: Um link interno tem o mesmo valor que um link externo?