Sexta-feira, 22 de novembro de 2024
Por Redação O Sul | 22 de setembro de 2024
Com a proliferação de cada vez mais conteúdos com inteligência artificial (IA) generativa, o Google anunciou que implementará uma forma para os usuários saberem quando uma imagem foi feita ou editada por IA. O recurso chega inicialmente para o Google Search, mas a ideia é que as demais verticais da empresa também tenham essa capacidade.
Para isso, o Google utiliza a certificação C2PA (Coalition for Content Pronance and Authenticity), que atua como um padrão técnico de proveniência. O C2PA consegue entender as raízes da imagem e informar onde foi tirada, se foi por um smartphone ou câmera, edição manual via software, e se foi fabricada inteira ou parcialmente por IA.
Assim, imagens que contenham metadados do tipo C2PA serão rastreadas por usuários ao clicar na opção “Sobre esta imagem”, ao selecionar um conteúdo pelo Google Search, Lens e Circule para Pesquisar. Atualmente, já é possível conferir alguns detalhes sobre as imagens com essa opção, mas apenas informações escassas, como o período de publicação do conteúdo.
YouTube
Em sua nota de anúncio, o Google informa que planeja expandir o padrão C2PA em propagandas e realizar uma integração com o YouTube no futuro. Para a rede social de vídeos, a expectativa é que os usuários possam identificar quando um conteúdo foi capturado por uma câmera.
Mesmo com boas medidas, a certificação usada pela gigante ainda não é amplamente compatível e precisa de mais aceitação no mercado. Empresas como Leica e Sony já utilizam o padrão em seus produtos, e é questão de tempo até que outras marcas também sigam esse caminho.
Com o crescente número de casos de deepfakes envolvendo o mundo de figuras famosas, pornografia e a criação de IAs sem filtros morais, como o Grok, ficará cada vez mais complexo distinguir o real da ficção.
ONU
Um órgão consultor ligado às Organizações das Nações Unidas (ONU) fez uma série de recomendações sobre o futuro da inteligência artificial na sociedade. O relatório completo inclui alertas sobre riscos e sugestões para ações governamentais.
O comitê escolhido para lidar sobre o tema diz que o assunto não é monitorado como deveria pela ONU. Ele pede que os riscos da IA sejam tratados com seriedade e de uma forma tão completa quanto as mudanças climáticas — um tema que por anos foi negligenciado e só agora, com problemas sentidos na prática, está se popularizando.
O documento traz algumas sugestões e recomendações para a ONU envolvendo riscos como a criação automatizada de desinformação, a criação de deepfakes cada vez mais realistas, a substituição de empregos e o viés algorítmico de IAs generativas.
De acordo com o relatório, uma das prioridades da organização deve ser abrir o diálogo sobre IA com todos os membros da ONU, para que as nações possam debater sobre o tema mais livremente. Além disso, um fundo deve ser criado para “empoderar nações mais pobres” e permitir que elas não fiquem tão atrasadas no campo em comparação com outros países.
O documento pede ainda a criação de um painel independente e internacional com representantes científicos e do mercado da IA e o estabelecimento de uma troca de padrões sobre o tema, criando espaços em comum nas organizações.
Na prática, a proposta inclui ainda a criação de um framework global para estabelecer padrões de treinamento de dados e troca de informações anonimizadas para treinamento de IAs. As recomendações serão debatidas em um evento da ONU em setembro de 2024 e, a partir de então, podem ou não ser adotadas oficialmente.
“Como especialistas, continuamos otimistas sobre o futuro da IA e seu potencial para o bem. Esse otimismo depende, porém, do realismo sobre os riscos e da inadequação das estruturas e incentivos em vigor”, diz o texto.