Olá leitores da Agência Mestre,
Este mês a AOL lançou um novo portal BETA, o Love.com, que vem atraindo discussões de jornalistas e na nossa área de SEO.
Basicamente o Love.com é um website automatizado que gera conteúdo de qualquer tipo, organizado em subdomínios, onde este conteúdo é coletado de fontes “confiáveis”, tais como o Youtube, Twitter e Relegence. Pouca interação humana é necessária para produzir as milhares de subdomínios que o Love.com possui e segundo o site TechCrunch, o website já cobre mais de 350 mil tópicos e possui mais de 100 mil visitas únicos na semana.
Depois de ler o artigo do Aaron Wall do SEOBook.com, senti a necessidade de discutir os problemas que o Love.com possui. Vamos aos pontos:
Geração de Conteúdo Duplicado
Baseado na idéia de combinar conteúdo de vários serviços, as páginas do Love.com são completamente “copiadas” das suas fontes originais. Assim, os mecanismos de busca podem considerar cada subdomínio como conteúdo duplicado.
Cross-Linking dos Conteúdos
Através de uma relação entre palavras, o sistema do Love.com produz em seu cabeçalho, uma lista de palavras similares ao que você está vendo e interlinka com este conteúdo, fazendo com que cada subdomínio se ligue a outros subdomínios do mesmo sistema.
Uso de Links de um Domínio já Existente
Para quem não sabe o site Love.com é um antigo site que apontava para o Match.com, um site de relacionamento muito forte nos EUA. Ao longo do tempo o Love.com recebeu diversos links e agora o mesmo juice que era passado para ele está sendo aproveitado neste novo modelo do sistema.
Uso de Conteúdo de Terceiros para Ganho com Publicidade
Se tem um problema que a web brasileira conhece é que rouba conteúdo e utiliza várias formas de publicidade para ganhar dinheiro com o conteúdo “roubado”. Não muito distante, o Love.com faz um sistema parecido, onde ele obtém o conteúdo das diversas fontes e no seu canto inferior direito, exibe uma lista de publicidade da AOL.
Finalizando
A questão final que fica é até quando os mecanismos de busca, como o Google, Yahoo! e MSN, vão permitir que o site Love.com produza conteúdo desta forma. Será que eles vão deixar isto passar em branco por ser um site com alto Trust?
Até quando o Google vai continuar indexando os novos subdomínios do AOL? No momento está em 133 mil “subdomínios” indexadas…
E olha que eu não cheguei nem a comentar que cada subdomínio do Love.com possui um link no footer para a AOL…
Cara, até concordo com o que vc falou, mas será que isso realmente é trabalho dos mecanismos de busca? Não são eles que fiscalizam a internet, eles só catalogam os sites. Na minha opinião, não é o Google ou o Yahoo! que tem que fiscalizar essas irregularidades, não é com isso que eles trabalham.
Abço!
Olá Gabriel,
Acaba sendo um problema dos mecanismos de busca pois estes resultados vão poluir e muito os resultados de busca. Logo logo você vai começar a notar que para as suas buscas, um subdomínio do Love.com irá aparecer e ele apenas traz conteúdo já existente. Qual a contribuição dele para o índice dos mecanismos de busca? Esta é a questão.
Concordo, mas vendo por este ponto, e quanto a Wikipedia? Também é um site que aparece bem indexado em diversas buscas, certo? Não é conteúdo duplicado, mas também não é o site que se buscava..
A resposta está diretamente na sua pergunta “Não é conteúdo duplicado”. A Wikipedia faz uma interlinkagem muito forte, mas não é em subdomínios. Eles tem um conteúdo único, que em grande parte é atualizado diariamente. Eu acho que são coisas muito diferentes. Uma coisa é copiar, outra coisa é produzir.
Oi Fabio, bom dia
Muito interessante este teu post, mas acho q há um equivoco na análise do site. Na verdade, ele não traz (ou importa) o conteúdo para seus banco de dados ou subdominios. Se você observar, ele trabalha com frames, quer dizer, tem um Frame “mãe” dentro do subdominio x mas o conteúdo completo está na página de quem gerou o conteúdo. Por exemplo http://t.love.com/208335311, se vc observar, o conteúdo em si está no dominio http://kaaltv.com o que não configura necessariamente conteúdo duplicado. O site (love.com) não é gerador de conteúdo e sim “agregador”, o q deve ter um tratamento diferenciado pelos buscadores.. não sei como, mas deve ser
Abs
Olá Marcos,
Creio que você esteja equivocado no que colocou. Olhe o código fonte e o site Love.com em qualquer subdomínio apresenta o conteúdo de forma normal sim. Não existe nenhum frame como você disse.
Realmente é conteúdo duplicado, agora está ai a prova de fogo dos buscadores, será punido por não ter conteúdo próprio ou será que só nós somos punidos quando utilizamos essas técnicas?
Agora vamos ver até aonde os buscadores analisam como conteúdo duplicado e se realmente tem relevância isso no ranking das buscas.
Acredito eu que como é um site de uma empresa muito grande não deve sofrer nenhuma restrição pelos buscadores, mas espero estar enganado.
Abração.
E se continuar assim (com esses links no footer)então a aol estara no top de várias pesquisas?
Entendo muito pouco de javascript e HTML, mas no código fonte dos subdomínio eu reparei que tem uma função do jQuery (LoveHat.init) que recebe como para a url do site que está sendo “copiado”. Essa função do jQuery parece que está adicionando um no corpo da página. Se for isso mesmo, então é ou não considerado conteúdo duplicado? Vejam ai e me corrijam em qualquer coisa que eu tenha confundido.
código javascript
http://o.aolcdn.com/art/merge/?f=/love/jquery-1.2.6.min.js&f=/love/loveheader.js&f=/love/utils.js&f=/love/lovehat.js&expsec=31536000&ver=5
“recebe como parâmetro” e não “recebe como para”.
“adicionando um iframe no” e não “adicionando um no”. Foi mau os erros. kkkkkkkkkkk… Deve ter um monte. Este último foi porque tentei colocar uma tag html…
Fábio, achei interessante seu artigo e concordo com seus fundamentos, mas sabemos que, muitas vezes, o Google não deixa de indexar o conteúdo duplicado, apenas omite os resultados nas buscas.
Fiz alguns testes e as páginas do love.com, apesar de indexadas, não foram exibidas nos resultados entre as 5 primeiras páginas do Google.
Dessa forma, só o tempo nos mostrará o comportamento dos mecanismos de busca com relação ao site love.com
Olá Fábio!
Fiz o mesmo teste com o Alex e realmente as páginas do love.com não constam nas pesquisas, porém, ainda devido ser um site novo.
Pode ser que ao longo do tempo, sim os mecanismos de busca, acabam por mostrar esses resultados, acho que seja uma boa pergunta para postar no Blog do Google Adsense!
Fábio,
Pegando o exemplo do love.com em outra discussão: quais as vantagens e desvantagens de criar subdomínios e subdiretórios? Qual é a diferença na indexação? Como é passado o link-juice e a autoridade nas diferentes abordagens? Ainda existe a possibilidade de aparecer mais de duas vezes na SERP com diferentes subdominios? Muitas perguntas, neh? 😀
No caso do love.com, como a subdivisão é relativo a temas completamente diferentes, acho justificável possuir subdominios diferentes, desde que tenha conteudo para suportar cada um deles…
Mas e quando o conteudo é sobre o mesmo tema, mas enfoca diferentes abordagens? Por exemplo, em uma divisão do site em diversas partes como blog, forum, podcast, suporte, afiliados, …, seria melhor subdominio ou subdiretorios?
Abraços e continue com o bom trabalho…
Olá.. mas eles apenas colocam uma pequena parte do texto nas páginas próprias (http://soccer.love.com/), a matéria completa está no site de noticias.
Este serviço está mais com cara de Google News do que um serviço orientado para obter tráfego organico. Até pela questão do “link juice” que é muito, senão impossível, ser distribuido em milhares de subdominios.
Abs
Cara ja estive ae na sua área, longe pra caramba esse Itajuba, as universidades sao ótimas, sou de Cabo Frio
É só aguardar mesmo para ver se o Google vai se mover ou já está se movendo para não atrapalhar os resultados relevantes originais.
Até o momento o Google continua indexando mais e mais subdomínios do Love.com. Vamos ver nas próximas semanas.
Olá pessoal,
Dei uma pesquisada e o site tem alguns arquivos js que exibem o site mas no código fonte não tem conteúdo duplicado. Portanto, creio que o Google vai indexar e mostrar normalmente, porém, o site vai perder no que diz respeito a conteúdo, já que terá somente o título e a url otimizada. Mas como já sabemos que semântica, titulo e url já dão uma boa visibilidade, com 300 mil posts vai dar acesso organico sim. Concordo com um amigo ai em cima que não passa de um agregador bem bolado, um Google News ou IGoogle que você não pode editar, ou mais ainda, um RSS agrupado dos 27.000 sites relevantes para o webmaster. Achei o serviço bem interessante e não vi tanto problema assim!
a minha senha dá inválida e nã entendo por quê.