Domingo, 22 de dezembro de 2024
Por Redação O Sul | 6 de abril de 2024
A Meta identificará, a partir de maio, áudios, imagens e vídeos gerados por inteligência artificial (IA) em suas redes sociais, informou na sexta-feira a gigante tecnológica americana, dona do Facebook, Instagram e WhatsApp.
A companhia já identifica imagens geradas por IA com sua própria ferramenta desde dezembro. Em fevereiro, anunciou que faria isso com conteúdo gerado por terceiros, como OpenAI, mas não deu prazo para quando isso aconteceria.
“Prevemos começar a marcar o conteúdo gerado por IA em maio de 2024”, indicou em seu blog Monika Bickert, vice-presidente de conteúdo da Meta, acrescentando que a menção “Made with AI”, já usada em imagens fotorrealistas, seria aplicada a “um maior número de conteúdos de vídeo, áudio e de imagens”.
Estes conteúdos serão marcados se a plataforma detectar “indicadores de imagem de IA conforme as normas da indústria” ou se “as pessoas indicarem que estão carregando conteúdos gerados por IA”, destacou.
O anúncio foi feito depois de a empresa consultar seu conselho de supervisão, que considerou “a transparência e um maior contexto como a melhor forma de tratar os conteúdos manipulados”.
Com isso, evita-se “o risco de restringir sem necessidade a liberdade de expressão”. Em vez de eliminá-los, como era feito até agora, serão acrescentados “etiquetas e contexto” a estes conteúdos.
Conteúdo político
No entanto, advertiu a Meta, qualquer conteúdo, seja criado por um humano ou por IA, que viole as regras “contra a interferência nos processos eleitorais, a intimidação, o assédio, a violência (…) ou qualquer outra política em nossas normas comunitárias” será retirado.
A Meta reafirmou que confia em sua rede de “aproximadamente cem verificadores de dados independentes” para detectar conteúdos gerados por IA “falsos ou enganosos”.
Outros gigantes como Microsoft, Google e OpenAI têm assumido compromissos similares. O temor é de que as pessoas utilizem estas ferramentas para semear o caos político, especialmente através da desinformação ou informação errada. Há várias eleições importantes este ano, especialmente nos Estados Unidos.
Para além das datas eleitorais, o desenvolvimento de programas de IA generativa leva à produção de um fluxo de conteúdo degradante, segundo muitos especialistas e reguladores, como as falsas imagens (“deepfakes”) pornográficas de mulheres famosas, um fenômeno que também afeta pessoas anônimas. As informações são do jornal O Globo.