Sexta-feira, 04 de abril de 2025
Por Redação O Sul | 1 de abril de 2025
Em meio ao boom do uso de inteligência artificial, um implante cerebral foi testado em uma pessoa que conseguiu converter os pensamentos de uma mulher paralisada em fala quase simultaneamente, anunciaram pesquisadores dos Estados Unidos nesta segunda-feira. Embora tenha havido apenas um teste em humanos até agora, essa nova conquista que conecta ondas cerebrais a um computador aumentou as esperanças de que outros indivíduos que perderam completamente a capacidade de se comunicar possam recuperar a voz.
A equipe de pesquisa sediada na Califórnia já havia usado uma interface cérebro-computador (ICC) para decodificar os pensamentos de Ann, uma mulher de 47 anos com tetraplegia, e traduzi-los em fala. No entanto, houve um atraso de oito segundos entre a geração de pensamentos e a produção da fala lida em voz alta por um computador. Isso significava que manter uma conversa fluente estava fora de alcance para a professora de matemática do ensino médio, que não conseguia se comunicar verbalmente desde que sofreu um derrame há 18 anos.
Mas o novo modelo da equipe, apresentado na revista Nature Neuroscience, transformou os pensamentos de Ann em uma versão do que era sua voz com um atraso de apenas 80 milissegundos. “Nossa nova abordagem em tempo real converte sinais cerebrais em sua voz personalizada quase imediatamente, um segundo depois que você tenta falar”, disse à AFP o autor principal, Gopala Anumanchipalli, da Universidade da Califórnia, Berkeley.
Anumanchipalli acrescentou que o objetivo final de Ann é se tornar uma conselheira universitária. “Embora ainda estejamos longe de conseguir isso para ela, esse avanço nos deixa mais perto de melhorar drasticamente a qualidade de vida de pessoas com paralisia vocal”, disse ele.
Durante a pesquisa, Ann conseguia ver frases em uma tela – como “Então você me ama” – que ela dizia para si mesma em sua mente. Esses sinais cerebrais foram rapidamente convertidos em sua voz, que os pesquisadores reconstruíram a partir de gravações anteriores ao ferimento. A mulher ficou “muito animada ao ouvir a si mesma e relatou uma sensação de corporeidade”, disse Anumanchipalli.
O modelo usa um algoritmo baseado em uma técnica de inteligência artificial (IA) chamada aprendizado profundo, que foi pré-treinada a partir de milhares de frases que Ann tentou pronunciar silenciosamente. Embora não seja totalmente preciso e o vocabulário esteja atualmente limitado a 1.024 palavras, Patrick Degenaar, especialista em neuropróteses da Universidade de Newcastle, no Reino Unido, que não esteve envolvido no estudo, disse que a pesquisa é “uma evidência muito inicial” da eficácia do método. Ainda assim, é “ótimo”, ele disse.
Degenaar observou que este sistema usa uma série de eletrodos que não penetram no cérebro, ao contrário do BCI usado pela empresa Neuralink de Elon Musk. O método de instalação desses eletrodos é relativamente comum em hospitais onde a epilepsia é diagnosticada, o que significa que essa tecnologia poderia ser facilmente implementada em larga escala, acrescentou.