Sexta-feira, 10 de janeiro de 2025

Porto Alegre

CADASTRE-SE E RECEBA NOSSA NEWSLETTER

Receba gratuitamente as principais notícias do dia no seu E-mail ou WhatsApp.
cadastre-se aqui

RECEBA NOSSA NEWSLETTER
GRATUITAMENTE

cadastre-se aqui

Tecnologia Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta

Compartilhe esta notícia:

Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana.

Foto: CES/Reprodução
Yann LeCun (foto), da Meta, criticou fala de Sam Altman e afirmou que ainda não estamos perto de ver uma IA com inteligência humana. (Foto: CES/Reprodução)

Dois dos maiores nomes da inteligência artificial (IA) da atualidade estão em desacordo sobre o que poderá ser a próxima evolução na tecnologia. Em um evento, durante a Consumer Electronics Show (CES) 2025, Yann LeCun, cientista-chefe de IA da Meta, afirmou que não teremos uma inteligência artificial geral (AGI, na sigla em inglês), em um futuro próximo e que afirmação de Sam Altman, CEO da OpenAI, de que já sabe como construir tecnologia é “loucura”.

No início da semana, Sam Altman escreveu em seu blog pessoal que a OpenAI já teria o conhecimento necessário para construir uma AGI dentro da empresa. AGI é um tipo de inteligência artificial que pode ultrapassar a capacidade do cérebro humano. De acordo com Altman, ainda em 2025 será possível ver agentes de IA “se juntarem à força de trabalho” e se tornar uma ferramenta semelhante a uma AGI.

LeCun, no entanto, criticou a postura do dono do ChatGPT, afirmando que a definição de AGI pode variar de acordo, mas que igualar o conceito a, simplesmente, alcançar o nível de inteligência humano é muito simplório.

“Acho que é uma definição terrível”, explicou o cientista. “Antes de mais nada, isso depende. O que você quer dizer com AGI? Sinceramente, não gosto da expressão porque as pessoas a usam essencialmente para designar uma inteligência que está no nível da inteligência humana, e a inteligência humana é muito especializada. Achamos que temos uma inteligência geral, mas não temos, somos superespecializados, portanto, a frase sobre AGI (de Altman), na minha opinião, é loucura”.

Isso porque o cientista acredita que a capacidade de uma IA de superar o conhecimento humano em algumas tarefas, como ser aprovado em uma prova de faculdade ou alcançar notas máximas em testes de conhecimento, não é a mesma coisa que atingir um nível humano de inteligência – uma tarefa que, segundo ele, é muito mais complexa do que apenas trabalhar com lógica e raciocínio.

“É como se todo mundo criasse referências para a inteligência de nível humano e dissesse, por exemplo, que se você tivesse conseguido essa referência, teria alcançado a inteligência de nível humano. As pessoas estão cometendo os mesmos erros há 70 anos”, afirmou na conversa.

O chefe de IA da Meta também acredita que a regulação da inteligência artificial deve ser aplicada apenas na camada de aplicação da tecnologia e não no desenvolvimento dos modelos. A empresa de Mark Zuckerberg é dona de um dos modelos mais famosos do setor, o Llama, um código aberto que alimenta diversos aplicativos de IA. Para LeCun, regular o processo de pesquisa e desenvolvimento dessas ferramentas é um risco para a autonomia de criação das empresas. O cientista não comentou o novo posicionamento da gigante em relação à moderação de conteúdo.

“Como isso pode ser feito? Como isso faz sentido? O risco de regulamentar pesquisa e desenvolvimento é que você dirá à comunidade que está assumindo um risco de responsabilidade. Ao liberar a modelagem e a fonte, que empresas não correrão esse risco?”, questionou o cientista. “Se houver algum tipo de responsabilidade em cascata será como (autorizar) processar a empresa porque alguém em algum lugar do mundo usou alguma personalização para fazer algo ruim”.

(Estadão conteúdo)

Compartilhe esta notícia:

Voltar Todas de Tecnologia

Anúncio de indicados ao Oscar é adiado por causa de incêndios
Toma pílula para dormir e ainda sente cansaço? Estudo revela motivos
https://www.osul.com.br/ideia-de-superinteligencia-artificial-da-openai-e-loucura-afirma-cientista-chefe-da-meta/ Ideia de superinteligência artificial da OpenAI é loucura, afirma cientista-chefe da Meta 2025-01-09
Deixe seu comentário
Pode te interessar