Ícone do site Jornal O Sul

Com a criação de vídeos ultrarrealistas, novo sistema de inteligência artificial da OpenAI aumenta a preocupação no mundo

Nova ferramenta aumenta risco de "deepfake". (Foto: Pixabay)

Com a criação de vídeos ultrarrealistas a partir de comandos simples de texto, o novo sistema de inteligência artificial da OpenAI, o Sora, aumenta a preocupação sobre a disseminação de deepfakes, e deve esquentar os embates que envolvem direitos autorais para conteúdos gerados por IA. Ainda restam dúvidas, no entanto, sobre até onde o sistema pode criar vídeos que simulam com qualidade a realidade, avaliam especialistas.

Assim como aconteceu com antecessor ChatGPT, robô da OpenAI que cria textos, o Sora foi apresentado pela empresa com o alerta de que se trata de um sistema ainda com diversas limitações.

“(O modelo) pode ter dificuldade em simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida”, informou a OpenAI, no texto sobre a ferramenta.

Os primeiros vídeos criados pelo novo robô da OpenAI, divulgados na quinta-feira, impressionam pela capacidade de simular de forma ultrarrealista pessoas, cenários e objetos, em tomadas de vídeo com grau de complexidade maior que de ferramentas concorrentes, como o Midjourney e o Stable Diffusion.

“O que eles não falam é que, possivelmente, os vídeos apresentados são alguns dentre milhares que foram feitos até chegar a um resultado apresentável. O processo de criação não é tão simples quanto parece. Às vezes é preciso criar mil imagens para obter uma muito boa”, pondera Fabro Steibel, diretor executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).

Por enquanto, apenas um grupo restrito de pesquisadores e artistas pode acessar o novo sistema da OpenAI, capaz de gerar vídeos de até um minuto, de aspecto realista ou de animação. A companhia não informou quando o Sora será liberado para todos os usuários, nem se ele será gratuito ou pago.

Lançado com falhas

Entre os avanços obtidos, em comparação com sistemas concorrentes, a empresa destaca a capacidade do Sora em criar cenas complexas com vários personagens, a possibilidade de gerar movimentos e detalhes específicos nos cenários, além de entender não só o que o usuário pediu no comando, mas também “como essas coisas existem no mundo físico”.

A própria empresa, no entanto, admite as fragilidades da ferramenta. Nesta sexta-feira, a OpenAI divulgou uma série de vídeos que escancaram as limitações do Sora ao criar cenas que não fazem sentido, como uma cadeira amolecida que voa no deserto, e também sequências inusitadas, como uma bola de basquete que explode antes de passar pela cesta.

Essa não é a primeira vez que a OpenAI lança ou apresenta um sistema com falhas sabidas – o mesmo aconteceu com o Dall-E e, depois, com o ChatGPT, conhecido pelas “alucinações”, ou seja, criação de conteúdos desconectados da realidade ou completamente fora do pedido pelo usuário.

Risco de deepfakes

Francisco Brito Cruz, diretor executivo do InternetLab, avalia que a criação do sistema faz parte de mais um dos saltos que a OpenAI e outras gigantes de tecnologia vem dando para potencializar seus sistemas, em um processo de aperfeiçoamento contínuo, inclusive com novas funcionalidades. Ele lembra que, com essas evoluções, os riscos envolvidos na IA também escalam:

“A gente já sabia que as capacidades desses sistemas iriam aumentar e que o GPT-3 e GPT-4 (modelos por trás do ChatGPT) eram o começo de uma curva de aprimoramento. Sendo parte do processo, os riscos que tínhamos nas gerações anteriores da IA se repetem ou se acentuam. As discussões sobre criação de conteúdo falso ou violento, e os riscos de criar conteúdo com material protegido por direito autoral voltam a aparecer.”

Segundo a OpenAI, o Sora terá as mesmas proteções de outras sistemas da companhia, que envolvem barreiras para criação de conteúdos violentos ou de cunho sexual, além de restrições para geração de vídeos que tenham celebridades.

A empresa também informou que irá incluir uma espécie de marca criptografada ao conteúdo do Sora, para indicar que ele foi gerado por IA.

Steibel diz que muito provavelmente os marcadores “não resolverão o problema” das imagens falsas ou deepfakes, porque “possivelmente vão encontrar formas de retirá-las ou falsificá-las, como várias das proteções que já vimos surgir em tecnologias”.

Brito Cruz acrescenta que a aceleração desses sistemas de mídia sintética, sejam vídeos ou áudios, torna mais urgente o desenvolvimento paralelo de ferramentas de identificação de conteúdos gerados por IA. Ele lembra ainda que, além dos sistemas da OpenAI em si, há preocupação sobre como ferramentas paralelas poderão se desenvolver sem os mesmos filtros de segurança.

“Esse lançamento mostra que vai ser cada vez mais fácil produzir deepfakes. A gente precisa discutir também o quanto essa tecnologia, nesse nível de performance, vai chegar para outros agentes. E aí precisamos entender, do ponto de vista legislativo, como ter parâmetros antes que isso aconteça.”

Sair da versão mobile