ir para conteúdo

Como funciona um Sistema de Busca


A primeira coisa que devemos compreender sobre a aplicação das técnicas de SEO ou como otimizar sites para Sistemas de Busca é que os chamados "Crawler´s" ou robots de Busca não são seres humanos.

Isto pode parecer óbvio para muitos mas as diferenças entre como seres humanos e os Sistemas de Buscas vêem as páginas na Internet não são. Não sendo seres humanos e pela própria natureza da internet e dos ambientes de rede, os motores de Busca são projetados para serem guiados através de textos e links.

Embora a tecnologia avance rapidamente, os Sistemas de Busca estão longe de serem criaturas inteligentes a ponto de poderem apreciar a beleza de um design, imagens ou mesmo apreciar os sons ou movimentos em um filme.  Estes Sistemas de Busca rastreiam a Web procurando por itens particulares (principalmente texto) para terem uma idéia sobre o conteúdo (tema) de um site em particular.

Softwares chamados "Crawler", Robots...

Esta breve explanação sobre o assunto talvez não seja tão precisa porque como veremos mais adiante os Motores de Busca podem executar várias atividades para realizarem os mais diversos trabalhos de Busca e apresentarem as páginas de resultados (SERP´S) - rastreando, indexando, processando, calculando a relevância de um termo/palavra, e novamente re-cobrando estas informações para própria conferencia. Estas tarefas são executadas por softwares chamados "Crawler", Robots ou para alguns, "aranhas" (ou Googlebot, como é o caso do Google) e a finalidade principal é o rastreio à procura de novidades sobre toda e qualquer informação relevante, seguindo links de uma página a outra e fazendo o mapeamento de todos os índices encontrados pelo caminho.

Tendo que se ocupar de um número cada vez maior de páginas da Web (atualmente mais de 20 bilhões), é naturalmente  impossível para um Crawler visitar um site diariamente apenas para ver se uma nova página foi adicionada ou se outra já existente foi modificada. Muitas vezes os crawlers não visitarão seu site durante algum período, talvez um mês ou dois. Então, aproveite este tempo para conferir se revisar a aplicação de suas técnicas porque seus esforços na otimização ainda não serão recompensados, e não existe nada que você pode fazer sobre este assunto, a não ser somente ficar, aguardando pacientemente.

        Uma das coisas que você pode fazer na otimização de sites é verificar "o que" e "como" um Crawler "vê" seu web site. Como crawlers não são seres humanos eles não vêem imagens, arquivos em Flash, javascripts, iframes, páginas protegidas por senhas e diretórios. Então, caso você tenha toneladas destes arquivos em seu site e melhor correr ao Simulador de Robots para ver se estas belezinhas estão sendo vistas pelo Crawler. Caso eles não estejam sendo vistos, também não serão indexados, processados, etc. - Para resumir eles serão inexistentes para os motores de procura, ou melhor, todo o conteúdo disponibilizado usando estes artifícios esta sendo visto apenas por seres humanos.

Rastreio e indexação 

Depois que uma página é rastreada o próximo passo é a indexação de seu conteúdo. A informação da página indexada é armazenada em uma enorme base de dados, de onde mais tarde poderá ser acessada. Essencialmente, o processo de indexação tem como finalidade identificar as palavras e expressões que melhor descrevem a página e designar uma palavra-chave em particular. Para um ser humano seria impossível processar tais quantidades de informações, mas os Sistemas de Busca podem realizar esta tarefa com muita eficiência. Às vezes, talvez eles não recebam o significado direto de uma página, mas se você os ajudar fazendo a otimização corretamente será mais fácil para que possam classificar sua página - alcançando assim um posicionamento mais relevante.

Quando é feita uma solicitação de Busca, o Sistema faz o processamento - i.e. compara o link de procura fazendo uma solicitação em sua própria base de dados onde tem a indexação das páginas/sites mapeados. Desde que existe a possibilidade de que mais de uma página (praticamente poderá ser até alguns milhões de páginas) contendo o link com o termo utilizado para pesquisa no Sistema de Busca a apresentação dos resultados é mostrada de acordo com o cálculo da relevância de cada uma das páginas no índice de links de Busca. Existem vários algoritmos para calcular a relevância de uma palavra-chave ou termo de pesquisa. Cada um destes algoritmos tem pesos relativos diferentes para fatores comuns como densidade da palavra-chave, links, ou metatags.

Essa é a razão porque diferentes Sistemas de Busca apresentam diferentes resultados (SERP´s) em uma Pesquisa para o mesmo link, palavra-chave ou termo pesquisado. Para complementar, é fato sabido que todos os Sistemas de Busca importantes como Yahoo!, Google, MSN, etc. periodicamente fazem modificações e atualizações em seus algoritmos e caso você queira persistir no topo dos resultados também necessita adaptar suas páginas às últimas mudanças. Este é um dos motivos (os outros são os seus próprios concorrentes) para que você entenda a necessidade de dedicação e esforços permanentes e contínuos na utilização das técnicas de SEO, caso goste de estar no topo dos resultados de Busca.

A última etapa na procura pelo termo é a re-cobrança de resultados. Basicamente, não é nada mais que simplesmente exibindo-os na página do seu Browser como sendo o resultado de sua pesquisa - que pode ser as páginas de resultados da Pesquisa, que são classificadas iniciando com os sites mais relevantes e os menos relevantes conforme se seguem os resultados das páginas.