Sábado, 16 de novembro de 2024
Por Redação O Sul | 15 de fevereiro de 2024
A Microsoft alertou que hackers da Rússia, China e Irã tem usado o ChatGPT e outras ferramentas da OpenIA para aprimorar suas habilidades de espionagem e invasão. O relatório foi publicado nesta quarta-feira.
Segundo a empresa de Redmond, os hackers têm usado grandes modelos de linguagem para gerar respostas que parecem humanas. Comentando o assunto, Tom Burt, vice-presidente de segurança da Microsoft, disse à Reuters que a empresa deve combater esses grupos.
“Independentemente de haver alguma violação da lei ou qualquer violação dos termos de serviço, simplesmente não queremos que os atores que identificamos – que rastreamos e sabemos que são atores de ameaças de vários tipos – não queremos que eles tenham acesso a essa tecnologia”.
Os grupos de hackers apontados no relatório têm ligações com a inteligência militar russa, com a Guarda Revolucionária do Irã e com os governos da China e da Coreia do Norte. Esses grupos estão empenhados em aprimorar suas campanhas de hacking ao utilizar grandes modelos de linguagem, um tipo de programa de computador comumente conhecido como inteligência artificial, que gera respostas similares às humanas a partir de uma grande quantidade de texto.
Acesso restringido
A Microsoft anunciou sua descoberta ao impor restrições de acesso às suas tecnologias AI para grupos hacker que são apoiados pelo estado. Independente de haver violação legal ou dos termos de serviço, a empresa afirmou não querer que essas entidades, conhecidas por suas atividades ameaçadoras, tenham acesso a sua tecnologia, segundo declarou Tom Burt, vice-presidente de segurança do cliente da Microsoft.
Reação
Autoridades diplomáticas russas, norte-coreanas e iranianas não se pronunciaram a respeito. Entretanto, Liu Pengyu, porta-voz da embaixada chinesa nos Estados Unidos, posicionou-se contra “difamações e acusações infundadas contra a China”, defendendo o uso “seguro, confiável e controlável” da tecnologia de IA para beneficiar a humanidade.
Estas alegações, de que hackers apoiados pelo estado estão utilizando ferramentas de IA para aprimorar suas capacidades de espionagem, provavelmente elevam as preocupações sobre o potencial de abuso desta tecnologia. Bob Rotsted, líder em inteligência de ameaças à segurança cibernética da OpenAI, destacou que este é um dos primeiros casos onde uma empresa de IA discute publicamente como os agentes de ameaça à segurança cibernética utilizam as tecnologias de IA.
A OpenAI e a Microsoft descreveram o uso que os hackers fizeram de suas ferramentas de IA como “estágio inicial” e “incremental”. Tom Burt afirmou que, até o momento, não houve avanços significativos no uso dessas tecnologias por espiões cibernéticos.