Sexta-feira, 10 de janeiro de 2025
Por Redação O Sul | 2 de maio de 2023
A sociedade tem debatido nos últimos anos o uso da criptografia como uma ferramenta importante para a privacidade dos dados dos usuários. Mas pouco se fala sobre o seu uso para a construção de ferramentas de inteligência artificial mais responsáveis. Para a tecnóloga Chelsea Manning, que é ativista e ex-militar norte-americana, além fonte de um dos vazamentos de documentos confidenciais do governo dos Estados Unidos ao WikiLeaks, os aplicativos de IA generativa poderão utilizar a criptografia para lidar com as informações que alimentam esses sistemas – e assim, ajudar à sociedade a diferenciar o que é verdadeiro e o que é falso.
A tecnóloga participou do painel “IA é melhor com privacidade: Chelsea Manning na próxima década da internet”, no Center Stage, no Web Summit Rio, maior evento de tecnologia do mundo, que têm sua primeira edição na capital carioca.
“Vivemos num ambiente que somos bombardeados por uma quantidade absurda de informações porque estamos interconectados. E eu venho de uma época que a discussão era sobre sigilo ou disponibilidade das informações. E agora temos outra questão: essas informações que estão alimentando os sistemas são verdadeiras?”
Ela continua: “As ferramentas criptográficas serão cruciais para lidarmos com a informação e saber se é verdadeiro ou falso. As linguagens de IA generativa serão capazes de produzir resultados cada vez mais convincentes, mas elas são incapazes de burlar a criptografia”.
Profissionais de tecnologia devem garantir ética
Manning pondera que a ascensão de grandes modelos de linguagem e de imagem representa uma oportunidade para a sociedade, mas o seu desenvolvimento tem que ser feito de forma ética pelos desenvolvedores das corporações. Do contrário, continuaremos a enfrentar nos próximos anos as mesmas questões que lidamos nos últimos 15 anos com relação aos algoritmos dos mecanismos de buscas e das redes sociais.
“É uma questão sobre como nós, tecnólogos, estamos desenvolvendo essas tecnologias, quais dados usamos e como nós treinamos os dados, além da compreensão das limitações e do que podemos fazer especificamente com esse tipo de tecnologia.”
Para a ativista, os possíveis impactos que as ferramentas baseadas em IA podem trazer são de responsabilidade dos profissionais que as desenvolvem e não dos reguladores.
“A regulamentação e os sistemas regulatórios vão mudar. Mas as pessoas que trabalham na tecnologia tem que estar cientes que os dados podem ser usados para situações nefastas, então quem trabalha com privacidade e com algoritmos tem uma responsabilidade enorme nas mãos. Se não tratarmos isso corretamente, os reguladores vão ter uma reação exagerada e acabar regulando demais”, finaliza.