Ícone do site Jornal O Sul

Google reformula Inteligência Artificial após erros gerarem respostas absurdas em mecanismos de buscas

A companhia deve limitar o escopo de pesquisas que recebem textos feitos pelo sistema. (Foto: Reprodução)

O Google vai promover mudanças em sua ferramenta de inteligência artificial que gera respostas resumidas para buscas, depois de resultados sem sentido e incorretos viralizarem na internet. Disponível para os usuários dos Estados Unidos, o AI Overview chegou a informar que uma dieta de pedras poderia ser saudável e que o uso de cola é uma boa opção para engrossar o molho de pizzas.

Em uma postagem feita no blog da empresa, a chefe de buscas do Google, Liz Reid, admitiu resultados “bizarros” e imprecisos do AI Overview, e informou que a companhia iria limitar o escopo de pesquisas que recebem textos feitos pelo sistema.

“Pessoas nas redes sociais compartilharam algumas visões gerais estranhas e errôneas”, afirmou a executiva. “Observando exemplos das últimas semanas, conseguimos determinar padrões em que não acertamos e fizemos mais de uma dúzia de melhorias técnicas em nossos sistemas”, acrescentou.

A executiva do Google explicou que foram adotadas ações como limitar o uso de conteúdo gerado por usuários nas respostas, porque podem conter sugestões enganosas. Ela ressaltou ainda que a empresa busca não usar o AI Overviews em buscas sobre notícias factuais, nas quais o relato de acontecimentos recentes e a acuidade das informações são essenciais. E disse que, no caso de pesquisas sobre saúde, foram criados mecanismos de refinamento adicionais.

Nas últimas semanas, viralizaram resultados absurdos criados pela ferramenta. Em um caso, a inteligência artificial recomendou para o usuário que comer pedras poderia “ser bom”. Em outro, sugeriu usar cola não tóxica para engrossar o molho de pizza. Outra imagem que viralizou mostrava o AI Overview alegando que Barack Obama foi o primeiro presidente muçulmano dos EUA, reproduzindo uma teoria da conspiração popular entre a extrema-direita americana.

Esquisitices

Segundo Reid, as falhas reais do sistema foram acompanhadas de “grande número de capturas de tela falsas” que circularam nas redes. A empresa, no entanto, admitiu que a IA gerou textos “esquisitos, incorretos ou sem utilidade”.

O texto no blog do Google também justifica que resultados absurdos – como a dieta de pedras e o molho de cola – são fruto de pesquisas incomuns e raras, que teriam a intenção de produzir os resultados errados. O conteúdo nonsense, no entanto, pode indicar problemas mais profundos do sistema, já que os resumos usaram postagens de fóruns on-line e sites satíricos para gerar respostas. O uso desse tipo de site para alimentar a ferramenta também será limitado.

Segundo Liz, algumas perguntas intencionalmente sem sentido mostram o desafio de interpretação do AI Overviews. Ela cita como exemplo a pergunta “Quantas pedras eu deveria comer?” e argumenta que, antes das capturas de tela viralizarem, “ninguém perguntava essas coisas ao Google.”

Anunciado no início de maio, o AI Overview inclui nos resultados de busca do Google resumos prontos gerados por inteligência artificial, a partir de informações disponíveis na internet. Desde que foi apresentado, o AI Overview tem gerado alerta de especialistas para o risco de deterioração da qualidade de informações apresentadas no buscador. Criadores de conteúdo também têm levantado preocupações sobre o impacto do sistema no tráfego para os sites.

Monitoramento

Em postagem após os problemas com o sistema, a empresa informou que vai seguir monitorando as avaliações de usuários e fazendo ajustes. Ao anunciar o AI Overview, o Google informou que o sistema seria para bilhões de usuários ao longo do ano. Ainda não há data para o lançamento no Brasil.

Além de respostas absurdas, o Google admitiu também que o sistema gerou textos que violam as políticas de conteúdo da própria empresa. De acordo com Reid, os desvios aconteceram em um “pequeno número” de buscas, menos de uma em cada 7 milhões de consultas com o AI Overview. Os resultados incluíram informações potencialmente prejudiciais e obscenas.

Essa é a segunda vez neste ano que o lançamento de uma nova ferramenta de IA do Google gera uma crise para a empresa. No início do ano, a companhia suspendeu a geração de imagens no Gemini depois do sistema apresentar erros raciais e históricos – como soldados negros na Alemanha nazista de 1943. As informações são do O Globo.

Sair da versão mobile