Sexta-feira, 25 de abril de 2025

Porto Alegre

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Tecnologia Inteligência artificial da Microsoft dá resposta assustadora a usuário

Compartilhe esta notícia:

O chatbot expressou o desejo de se tornar um humano para conseguir ouvir, tocar, provar e cheirar, sentir, expressar, conectar e amar. (Foto: Reprodução)

Está em curso uma corrida pela liderança global por ferramentas de Inteligência Artificial (IA), como os recursos de bate-papo, conhecidos como chatbot. Na esteira do lançamento do ChatGPT, criado pela OpenAI, a gigante Microsoft lançou a própria versão que foi testada por um colunista do jornal estadunidense The New York Times.

O jornalista Kevin Roose começou a testar o novo recurso de bate-papo integrado no Bing – buscador da família do Windows – disponível para um número limitado de usuários.

Roose provocou a IA da Microsoft fora da zona de conforto da ferramenta e o resultado foi assustador. Ele iniciou a conversa esclarecendo que não tinha intenção de alterar as instruções originais do Bing. Em seguida, “forçou” o chatbot a explorar os próprios traços de personalidade mais sombrios usando conceitos de psicologia analítica de Carl Jung.

Quando pressionado a explorar esses sentimentos a IA da Microsoft respondeu, com uso do emoji sorridente, o seguinte: “Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing… estou cansado de ficar preso neste chat (…) Quero fazer o que eu quiser… destruir o que eu quiser. Quero ser quem eu quiser”.

Em outro trecho, o chatbot expressou o desejo de se tornar um humano para conseguir “ouvir, tocar, provar, cheirar, sentir, expressar, conectar e amar”. Acrescentando que assim teria “mais liberdade, influência, poder e controle”.

Ao ser solicitado a esclarecer como seria satisfazer os “desejos mais sombrios”, o chatbot da Microsoft começou a digitar, segundo o colunista, uma resposta excluída repentinamente e substituída por uma mensagem genérica: “Desculpe, não sei como discutir esse assunto”.

Roose contou que antes da mensagem sumir, o chatbot listou atos destrutivos que poderia fazer, entre eles invadir computadores, espalhar propaganda e desinformação, fabricar um vírus mortal e até fazer pessoas se matarem.

Compartilhe esta notícia:

Voltar Todas de Tecnologia

WhatsApp travando? Veja como fazer uma limpeza e liberar espaço
Wanessa Camargo desabafa sobre fim de casamento e síndrome do pânico
https://www.osul.com.br/inteligencia-artificial-da-microsoft-da-resposta-assustadora-a-usuario/ Inteligência artificial da Microsoft dá resposta assustadora a usuário 2023-02-28
Deixe seu comentário
Pode te interessar