Digite para buscar

Google pretende eliminar hoaxes e informações falsas nos resultados de busca

Felipe Ferreira 6 de Março de 2015
Share

Busca google

Engenheiros do Google estão desenvolvendo um algoritmo que irá incluir a confiabilidade dos sites como critério de avaliação. Em tese, isso pode rebaixar o posicionamento de páginas que divulguem informações falsas e dar mais visibilidade aos links que ofereçam conteúdo verdadeiro. Os resultados preliminares desta empreitada foram divulgados na última edição da revista New Scientist.

Atualmente, o Google utiliza uma série de métricas para classificar seus resultados de busca, e a popularidade de um site tem grande influência nisso. Entretanto, a qualidade do conteúdo oferecido não tem sido levada em conta, de modo que páginas cheias de sensacionalismo, alegações fantasiosas e boataria se sobressaem no page ranking apenas por serem populares. A desinformação na internet pode ser acidental, mas também há casos onde pessoas muito bem capacitadas trabalham em prol de objetivos específicos, podendo atingir empresas, políticos, celebridades ou até pessoas comuns. O prejuízo vai desde a difamação até abalos na Bolsa de Valores. Confesso que uma vez quase parei de comer Polaca do Alasca por conta de um hoax que falava sobre sua criação em águas poluídas da China e carne contaminada com vermes.

Vejo nesta iniciativa algo maior que um aprimoramento. Vejo isso como utilidade pública. Porém, ofereço um contraponto, e a ele dou o nome de Slenderman. Não que a criatura irá assassinar os analistas do Google, mas a sua existência me faz pensar na maneira em que o algoritmo irá reagir. O Slender, assim como as demais creepypastas, não passa de uma farsa, mas acabou se tornando algo “legítimo”, e escrever sobre ele não pode ser mal interpretado pelos mecanismos de busca. Assim surge a dúvida sobre como o Google irá distinguir as “mentiras assumidamente mentirosas” daquelas que estão sendo perpetuadas com a finalidade de induzir ao erro. A SCP Foundation, por exemplo, envolve textos que são divulgados como se fossem fatos reais. Faz parte da zoeira, e um blog de terror não pode ser penalizado por publicar um protocolo-SCP.

Analisando essas mudanças pela ótica publicitária, acredito que será mais difícil o surgimento de crises baseadas em argumentos mentirosos. Bom para instituições e pessoas públicas, além de ser um refresco pra galera de RP. Também penso que a busca por profissionais conteudistas será maior no futuro. Procura ocasionada pelo aumento na produção de conteúdo em campanhas de comunicação online e pela maior padronização de textos.

O novo algoritmo segue em desenvolvimento, mas, quando for implantado, é bem provável que sua lógica seja absorvida pelos demais sistemas de busca. A confiabilidade será um fator crucial na sobrevivência de qualquer página web, e isso poderá resultar numa nova maneira de interagirmos na rede.

Tags:
Felipe Ferreira

Valorizo as mais diversas formas de comunicação e procuro sempre provocar algum tipo de reação nas pessoas. Me interesso por um monte de coisas e gostaria de ter tempo infinito para aproveitar todas elas.

  • 1

You Might also Like