Sexta-feira, 25 de abril de 2025
Por Redação O Sul | 20 de maio de 2023
Os bots de pesquisa têm respostas – mas será que você pode confiar neles para fazer suas perguntas? Desde que a OpenAI, a Microsoft e o Google lançaram chatbots de inteligência artificial (IA), milhões de pessoas têm experimentado uma nova maneira de pesquisar na internet: batendo um papo com um modelo que regurgita aprendizados de toda a web.
Devido à nossa tendência de recorrer ao Google com perguntas a respeito da nossa saúde, é inevitável que também perguntemos ao ChatGPT, ao Bing e ao Bard. Mas essas ferramentas repetem alguns erros conhecidos relacionados com privacidade, segundo os especialistas, além de criar novos.
“Os consumidores devem encarar essas ferramentas no mínimo com desconfiança, já que – como tantas outras tecnologias populares – todas elas são influenciadas pelas forças da publicidade e do marketing”, disse Jeffrey Chester, diretor-executivo do grupo de defesa dos direitos digitais Center for Digital Democracy.
Veja a seguir o que você deve levar em consideração antes de contar a um chatbot de IA suas informações confidenciais de saúde ou quaisquer outros segredos.
1. Os bots de IA estão armazenando minhas conversas? Sim. O ChatGPT, o Bing e o Bard salvam o que você digita neles. O Bard do Google, que está sendo testado com um número limitado de usuários, tem uma configuração que permite dizer à empresa para parar de salvar suas consultas e associá-las à sua conta do Google.
2. As empresas estão usando minhas conversas para quê? Essas empresas usam suas perguntas e respostas para treinar os modelos de IA a dar respostas melhores. Mas o uso delas de suas conversas nem sempre para por aí. O Google e a Microsoft, que lançou uma versão de chatbot com IA para seu motor de busca Bing em fevereiro, dão margem em suas políticas de privacidade para usar suas atividades de bate-papo para publicidade. Isso significa que se você digitar uma pergunta sobre sapatos ortopédicos, há uma chance de ver anúncios relacionados ao tema depois.
Isso talvez não lhe incomode. Entretanto, sempre que preocupações com a saúde e publicidade digital se esbarram, há potencial para danos. Existem data brokers, pessoas que têm acesso à informações vazadas de sites, que vendem listas enormes de dados de pessoas e suas preocupações com a saúde a compradores que podem incluir governos ou seguradoras. E algumas pessoas com doenças crônicas relatam anúncios direcionados perturbadores que as perseguem pela internet.
Portanto, o tanto de informações de saúde que você compartilha com o Google ou a Microsoft deve depender do quanto você confia na empresa para proteger seus dados e evitar publicidade predatória.
A OpenAI, que desenvolveu o ChatGPT, diz que só salva suas pesquisas para treinar e aprimorar seus modelos. Ela não usa as interações com o chatbot para criar perfis de usuários ou publicidade, disse a porta-voz da OpenAI, embora ela não tenha respondido quando questionada se a empresa pretende fazer isso no futuro.
3. Algum humano verifica minhas conversas? Em alguns casos, revisores humanos intervêm para auditar as respostas do chatbot. Isso significa que eles também vão ver suas perguntas. O Google, por exemplo, salva algumas conversas para analisar e fazer comentários, armazenando-as por até quatro anos. Os revisores não veem sua conta do Google, mas a empresa avisa aos usuários do Bard para evitar compartilhar qualquer informação pessoal identificável nos chats. Isso inclui o seu nome e endereço, mas também detalhes que podem identificar você ou outras pessoas que você mencione.
4. Posso confiar nas informações de saúde que os bots oferecem? A internet é um pot-pourri de informações sobre saúde – algumas úteis, outras nem tanto – e os modelos de linguagem ampla, como o ChatGPT, talvez façam um trabalho melhor do que os motores de busca convencionais em evitar o que não presta, disse Tinglong Dai, professor de gestão de operações e análise de negócios da Universidade Johns Hopkins, que estuda os efeitos da IA nos serviços de saúde.
Por exemplo, Dai disse que o ChatGPT provavelmente faria um trabalho melhor do que o Google Acadêmico ao ajudar alguém a encontrar pesquisas relacionadas a seus sintomas ou contexto específicos. E em sua pesquisa, Dai está analisando casos raros nos quais os chatbots diagnosticaram corretamente uma doença que os médicos não conseguiram detectar.
Mas isso não significa que devemos confiar nos chatbots para dar orientações corretas de saúde, observou ele. Já foi demonstrado que esses modelos inventam informações e as apresentam como fatos – e suas respostas erradas podem ser assustadoramente plausíveis, disse Dai.