Ícone do site Jornal O Sul

Inteligência artificial: pesquisadores e governos discutem códigos de ética

Ameaças vêm da maior dificuldade de separar verdade e mentira, assim como o impacto da desinformação na política. (Foto: Midjourney)

Desde quando a inteligência artificial (IA) não passava de ficção científica, especialistas propõem limites para manter sob controle máquinas inteligentes. O avanço exponencial da IA nos últimos anos reacendeu esse temor de revolta da criatura contra seu criador, e o debate sobre como regular as inovações para equilibrar seus efeitos ganha mais atenção.

Não estão em jogo apenas questões existenciais, mas ameaças que já estão se mostrando presentes nas sociedades, como a maior dificuldade de separar verdade e mentira, o impacto da desinformação na política e nos conflitos e a influência dos algoritmos nas decisões de consumo.

Especialistas concordam que é preciso estabelecer normas para os robôs, que, em última instância, destinam-se aos propósitos dos humanos que os constroem e treinam. Mas muitas vezes a tecnologia avança a passos mais rápidos do que governos e instituições são capazes de reagir.

O desafio é maior diante da perspectiva de que uma regulação para a IA deveria ocorrer de forma transversal na sociedade e ser global, alerta o futurista Brett King. Autor de best-sellers sobre o impacto da tecnologia na sociedade e ex-consultor para fintechs do governo americano, durante a gestão de Barack Obama, King afirma que “não faz sentido haver regulação local”:

“Vimos isso com as big techs, que podem ter a operação em uma jurisdição, mas têm alcance global, impactando bilhões de pessoas. Com a IA será a mesma coisa. Imagens feitas no Midjourney como as de Trump sendo preso, dizem-nos que em 12 meses, no ambiente político, não será possível confiar em vídeo ou imagem alguma divulgada pela imprensa que revele algo que tenha sido feito por um opositor, por exemplo. Então, é preciso ter uma forma de distinguir conteúdo gerado por inteligência artificial de conteúdo tradicional, e isso requer uma regulação, o que não existe hoje”, defende King.

Ele chama a atenção para as dificuldades políticas que surgirão para algum acordo sobre os limites éticos para a inteligência artificial:

“Do ponto de vista humano, como essa tecnologia pode servir à Humanidade e como vamos criar esses parâmetros éticos? Como definir ética para uma operação segura de inteligência artificial? Isso também estaria sujeito à política.”

No Brasil, uma comissão de juristas convocada pelo Senado entregou em dezembro um relatório de 900 páginas com propostas para regular o setor. Se depender do documento, o Estado assume em grande parte a tarefa de regular a IA.

“O problema de entregar a inteligência artificial para a autorregulação é se repetir aquilo que vimos nos EUA na década de 1990. Tiveram a oportunidade de regulamentar o uso da internet, mas desistiram, por medo de que a regulação fosse maléfica e atrasasse o desenvolvimento da tecnologia”, diz o advogado Filipe Medon.

Em setembro passado, a Comissão Europeia apresentou a primeira versão de sua Diretiva de Responsabilização em Inteligência Artificial, proposta de lei que facilita cidadãos europeus processarem empresas de IA.

Pelo projeto, se uma pessoa for atropelada por um carro autoguiado, por exemplo, a pena recai sobre a empresa que o construiu, não importa que a tecnologia, no fim das contas, previna mais acidentes que cause. O mesmo vale para candidatos a emprego descartados por algoritmos de recrutamento com critérios de IA preconceituosos.

Exemplos de impactos negativos da IA que já conhecemos são vários, a começar pela gestão de conteúdo dos algoritmos das redes sociais e suas consequências em áreas como a política e a saúde mental. A IA generativa abre temas ainda mais controversos e dilemas éticos mais profundos, como o seu uso na medicina ou em armamentos. Decisões sobre quem deve viver ou morrer poderão ser atribuídas às máquinas?

No livro de contos “Eu, Robô”, Isaac Asimov introduziu, em 1950, o tema da ética na IA, com suas “três leis da robótica”. No livro, que inspirou o filme homônimo de 2004 com Will Smith, essas leis determinavam que um autômato devia proteger sua própria existência e sempre obedecer aos humanos, sem jamais atacar uma pessoa (nem mesmo a pedido de outra).

Os robôs ainda não têm autoconsciência, mas propostas para se criar arcabouços regulatórios e éticos para o desenvolvimento dessa tecnologia com responsabilidade crescem na academia.

Códigos de ética para inteligência artificial no mundo real são mais complexos que as leis de Asimov. Uma das propostas mais recentes foi feita por um grupo internacional de 26 especialistas liderados pela cientista da computação Ozlem Garibay.

Após uma série de simpósios para discutir uma IA mais “centrada em humanos”, eles publicaram na semana passada um estudo de 48 páginas delineando desafios. Como as aplicações reais da inteligência artificial são muito mais específicas que as dos robôs humanoides da ficção, os pesquisadores adotam muitas abstrações e há pouca coisa ainda concreta sobre essa nova realidade.

Sair da versão mobile