O Google vai aprimorar seu motor de busca para reduzir a exibição de conteúdos de pornografia falsos, gerados por inteligência artificial (IA) sem o consentimento de pessoas envolvidas, e que muitas vezes aparecem nos resultados de pesquisas.
O ajuste será necessário diante de uma explosão na disseminação de imagens fakes e não autorizadas de sexo explícito criadas por ferramentas de inteligência artificial generativa.
Quando esse conteúdo gerado por IA apresenta o rosto ou o corpo de uma pessoa real sem a sua autorização, essa pessoa pode solicitar a sua remoção dos resultados de busca. Agora, quando o Google decidir que uma remoção de conteúdo é necessária, ele filtrará todos os resultados em pesquisas semelhantes e removerá imagens duplicadas, disse a empresa nesta quarta-feira em um post em seu blog.
O Google também afirmou que melhorou os seus sistemas de classificação de busca para que conteúdo falso explícito não apareça como resultados principais.
“Nós já tínhamos políticas para permitir que as pessoas removessem esse conteúdo se o encontrassem na pesquisa, mas estamos no meio de uma mudança tecnológica”, disse Emma Higham, gerente de produto que lidera as proteções para a tecnologia de IA generativa do Google na ferramenta de busca e em outros aplicativos. “Como em toda mudança tecnológica, também estamos vendo novos abusos.”
Em 2023, a agência de notícias Bloomberg descobriu que o Google Search era a principal fonte de tráfego para sites que hospedam deepfakes, ou pornografia gerada por IA. No Google, uma busca por muitas celebridades conhecidas combinada com a palavra “deepfake” direcionava os usuários para MrDeepfakes.com e outros sites que existem principalmente para negociar imagens pornográficas.
Um ano atrás, o Google Search representava 44% das quatro milhões de visitas de desktop a MrDeepfakes.com, de acordo com dados da Similarweb.
O Google tem ajustado os resultados para consultas que buscam especificamente conteúdo deepfake vinculado ao nome de alguém. Em vez de mostrar essas imagens, o motor de busca será treinado para exibir conteúdo de alta qualidade e não explícito, como artigos de notícias, quando esses resultados estiverem disponíveis, disse a empresa.
Até agora, essas mudanças reduziram a exposição a resultados de imagens explícitas nesses tipos de consultas em mais de 70%, informou a empresa.
Entre abril e maio, o tráfego de busca nos EUA para os dois principais sites de pornografia deepfake despencou, de acordo com dados da Similarweb publicados em uma reportagem da Bloomberg de maio.
O Google também está rebaixando sites que apresentam um alto volume de páginas que foram removidas da busca porque violaram políticas contra conteúdo falso explícito, disse a empresa em sua postagem no blog.
Em uma entrevista separada, Emma Higham, a gerente de produto, ressaltou que o Google está enfrentando novos desafios ao decidir quando agir em relação a imagens explícitas não consensuais e quando deixar os resultados em seu motor de busca intactos, citando a necessidade de equilibrar a capacidade dos usuários de encontrar informações com a segurança on-line.
Defensores têm criticado o fato de o Google ter desclassificado, em vez de remover completamente da lista, o conteúdo deepfake.
“Temos que ter cuidado para não adotarmos uma abordagem demasiadamente brusca e termos consequências indesejadas no acesso à informação”, disse Emma, referindo-se a performers adultos que podem não querer que os conteúdos explícitos e consensuais sejam retirados da classificação do no motor de busca. “Mas quando vemos que há consultas de alto risco e um alto risco de conteúdo explícito falso aparecendo de forma não consensual, estamos tomando medidas drásticas.” As informações são da agência de notícias Bloomberg.