Olá leitores da Agência Mestre. Hoje vou dar uma dica para aqueles que escrevem seu código fonte de qualquer jeito podendo prejudicar de certa maneira seu rankeamento.
Spiderbot são vários computadores que varrem a web automaticamente coletando informações para que os motores de busca possam gerar um resultado quando feita uma busca pelo usuário.
O spiderbot sabe do que se trata seu site fazendo a leitura de seu código fonte. É no código fonte que o spiderbot acha as keywords, description, e todo texto de conteúdo. Logo se as coisas não estiverem em ordem o spiderbot pode indexar parcialmente essas informações ou até mesmo nenhum conteúdo o que é extremamente ruim para seu rankeamento.
O que não é conteúdo indexável em seu código fonte é chamado de clutter (ex: scripts, css, etc). Quanto mais clutter pior.
A idéia principal é externar o máximo possível o que não é conteúdo, ou seja colocar em arquivos externos tudo que for scripts, css, entre outros. Então não coloque trechos de css na página. coloque tudo em um arquivo externo e chame-o com este comando já conhecido :
<link href=”css/styles.css” rel=”stylesheet” type=”text/css” />
A mesma idéia deve ser usada para scripts e outras linguagens que você utilizar.
Se você usa image maps muito grandes não é interessante deixá-lo no início de seu site.
Outras vantagens :
- Será mais fácil manipular seus arquivos, já que será criada uma biblioteca de funções
- Fácil reutilizar, não precisa ficar copiando e colando trechos de código, basta apenas chamá-los quando necessário
- Caso tenha que utilizar esses arquivos em varias páginas, essas páginas serão carregadas mais rapidamente porque esses arquivos externos ficaram no cachê e não será necessário fazer o download toda vez que houver troca de páginas
Utilize uma ferramenta interessante e muito útil é o spider simulator. Esta ferramenta simula uma indexação pelo spiderbot mostrando que conteúdo seria indexado, dando-lhe uma idéia de como seu site é visto pelos motores de busca e apontando possíveis erros no seu código.
Se grande parte do seu site é feito em flash, asp entre outras ou possui frames é importantíssimo fazer esta simulação.
Qualquer dúvida é só perguntar. Consulte também nosso glossário SEO e SEM.
Abraços.
Bem legal esta ferramenta, pode ajudar bastante para fazer uma boa otimização das palavras e estruturas iniciais de um site.
A idéia de colocar os CSS e JS todos em arquivos separados é mesmo o ideal… porém, colocá-los todos dentro do HTML diminui o número de requisiçõs que são feitas ao carregar uma página, o que interfere de forma signifcativa na carga para o servidor. Logo, acho que mesmo sacrificando os padrões de desenvolvimento, convém pensar em colocar partes de js ou css dentro do html, mesmo que seja no fim.
Bem observado Alex.
Porém, também não há a necessidade de que sejam criados vários arquivos css ou js, a ponto de prejudicar o servidor.
Eu acho que o melhor é mesmo separar esses arquivos.
Obrigado pela visita e pelo comentário!
Ótima dica! Com toda certeza um código bem escrito tem grande significância. O ideal é sempre validar as paginas no w3c?
Olá Helinton,
Fazer a validação w3c é importante para a validação do seu html, para garantir que as tags estejam corretas.
Para o SEO, uma validação w3c não é tudo. Mas com certeza faz parte da qualidade como um todo.
Olá,
Usei esse “spider simulator” e percebi que os textos do sistema de materias que tenho em meu site não esta aparecendo nos robos. oque devo fazer?
Tenho no meu site no index um chamando um arquivo ASPX que exibe as materias em meu site.
Oque devo fazer para os Robos buscarem o conteúdo das minhas matérias?
Abraços
Rafael Furtado
Olá Rafael!
É o seguinte. Pelo que vi, em seu site você está usando iframes, correto?
O que acontece é que as spiders de todos os grandes sites de busca não indexam conteúdo que está dentro de um iframe, como parte da página em que o iframe está inserido.
Entendeu?
Você pode conferir nos comentários do meu post sobre como esconder conteúdo dos buscadores uma discussão maior, com explicações mais detalhadas sobre os iframes.
Espero ter ajudado! Se você continuar com dúvidas, entre em contato!
Abraços!
Muito obrigado Frank, vou pensar em alguma outra forma de colocar esse conteúdo no site.
Ja aproveitando, vc sabe se as spiders leem legal paginas em ASP.NET usando Master.Page??
Abraços
Rafael Furtado
http://www.surffoto.com.br
Rafael, não conheço muito do asp.net pois trabalho sempre com php.
Mas é o seguinte: o cuidado principal quando se usa Master.Page, é fazer com que cada página tenha meta tags exclusivas, ou seja, título e demais meta tags devem ser únicas por página, por conteúdo.
Tomado este cuidado, as spiders vão conseguir identificar mais precisamente o assunto de cada página e você não terá problemas.
Abraços!
Uma dúvida interessante:
Já aconteceu 2 vezes comigo de criar uma página nova, coloca-la no sitemap, social feeds, rss do site, etc… Daí em questão de 5 dias a página já aparece no google em uma boa posição, exemplo 4º lugar, porém ainda não parecia nada em cache do google, depois de 8 dias mais ou menos o google inclui o cache desta página e ela perde 3 a 4 posições e depois de 10 dias ela simplesmente some dos resultados, não aparece nem na 1ª páginas, nem 2 3 4 5 6 7 8 10 página……porém ao verificar “site:www.nomedosite.com.br” ela está lá indexada. O esquisito é que não é uma página duplicada, foi uma página de minha autoria e não utilizei nenhum black hat.
Você sabe me dizer porque isto pode ter ocorrido? Será que devo esperar mais alguns dias para o google passar novamente e classificar melhor a página? Ela fica em alguma lista de “páginas em avaliação”?
E aí Demétrios!
Existe um chamado Google Sandbox (caixa de areia – uma alusão à caixa de areia para gatos) que é exatamente isso – quando o Google desconfia de sites novos, e isso é muito comum acontecer, ele mantém o site várias posições afastadas do topo das buscas, provavelmente, para testar se o site é para valer ou somente mais um site spam.
Mantenha o ritmo dos trabalhos e em breve os resultados vão aparecer.
Caso seja um site antigo, é possível que ele esteja punido – resta rever problemas de spam e black hat no site, corrigir e aguardar.
O último caso, e improvável, é algum problema do searchbot em navegar/acessar o site – você pode conferir o post do Flávio sobre trocar o user-agent para testar problemas assim.
Outra dúvida:
Porque quando buscamos pelo IE e pelo FF com a mesma palavra-chave da diferença de posicionamento do site?
Já fiz algumas pesquisas que no FF a página aparecia por exemplo em 8ª e no IE em 10ª, sendo que a quantidade de resultados encontradas pelo google era a mesma.
“Coisas do além!”
Olá pessoal. Como faço para saber se os resultados desta ferramenta são satisfatórios? Obrigado.
E aí Márcio! Você pode testar a ferramenta. As ferramentas do webconfs são bem conceituadas e, exceto por problemas de codificação de caracteres, devem apresentar resultados muito bons.
Desculpa Frank. Não me expressei bem! Como faço para saber se o resultado da análise desta ferramenta no meu site é bom ou ruim?
Bom Marcio, a principio, se a ferramenta reportar muitos erros, o resultado é ruim, caso contrário, pode ser considerado satisfatório, o mínimo que se espera de um site é que ele seja indexável.
Oi Frank!! bem..nao sei mais o que fazer e a quem apelar!! como nao sou uma expert nem tampouco profisional da area tudo fica ainda mais dificil.. quem sabe voce nao me dà uma luz!! o fato: tenho um blog que figurava entre a 2° e a 4° pàgina do google numa determinada palavra-chava, a mais significativa pra mim, nos ùltimos 7 meses. De 2 semanas pra cà simplesmente ela sumiu da listagem dessa palavra-chave em todo o google nem na ùltima!! mas ele continua na 1° pagina em outras keywords!! o que poderia ter acontecido? até pensei ter sido penalizada mas nao tenho certeza. ps: a palavra-chave em que o blog saiu da listagem é “morro de sao paulo” no entanto se voce escreve ” morro de sao paolo” ele continua là! porque acontece isso? valeu e jà muito obrigada
Oi Jamille, pode ser uma troca de posições somente para teste ou penalização na palavra-chave em questão.
Muito bom o seu site!
Acredito que para ver com mais clareza como o google esta indexando as páginas de um site , é melhor consultar a “versão somente texto” do cache do google do que usar essa ferramenta spider simulador . Costumo ter melhores resultados com cache.E vocês o que acham ?
Sim , uma curiosidade sobre essa questão de codigo fonte,
Uma vez observei um site que usava os codigos comentados para pôr palavras chaves lá , ou seja otimizava até os comentários !– –! do site . hehehehhe
Acredito que o google não faça a indexação disso ?
Alguem ja tinha visto isso ?
Posso notificar para google como black hat um site que abusa disso?
Ygor, o Google deve ignorar comentários. Veja se quebra alguma guideline, ou tente rankear alguma página que seja só comentários.
Quanto ao outro comment. Ver o text cache do Google é uma boa, mas só dá certo se a página já tiver sido indexada pelo Google. O Spider simulator, entre outras, não depende da indexação do Google.
Bom dia, Minha pagina possui MasterPage e o inicio http://www.pagina.com.br os buscadores dão o seguinte erro: “HTTP/1.1 301 Moved Permanently” ele só le direito se eu colocar http://www.pagina.com.br/index.aspx 🙁
———————————
Outra duvida como coloco KeyWords e Description em paginnas que utilizam masterpage?
Excelentes dicas, vou implementar assim que possível.