Sábado, 04 de janeiro de 2025
Por Redação O Sul | 24 de agosto de 2023
Implantes cerebrais associados à inteligência artificial (IA) permitiram que duas pessoas com paralisia se comunicassem com precisão e velocidade sem precedentes. É o que relatam dois estudos distintos publicados na quarta-feira na prestigiosa revista científica Nature. Nos trabalhos, os pesquisadores detalham como suas tecnologias foram capazes de traduzir sinais neurais em texto ou palavras faladas por uma voz sintética.
Um dos aparelhos conseguiu decodificar 62 palavras por minuto, enquanto o outro, 78 palavras por minuto. Em nível de comparação, em uma conversa entre pessoas sem dificuldade de comunicação são emitidas cerca de 160 palavras por minuto. No entanto, essas novas tecnologias são as mais rápidas na decodificação da fala do que todas as testadas anteriormente.
“Agora é possível imaginar um futuro onde possamos restaurar uma conversa fluida para alguém com paralisia, permitindo-lhes dizer livremente o que quiserem com uma precisão alta o suficiente para ser compreendido de forma confiável”, disse Francis Willett, neurocientista da Universidade de Stanford, na Califórnia, e coautor de um dos artigos, em entrevista coletiva, na segunda-feira.
Um dos estudos detalha o caso da americana Pat Bennett, de 68 anos. Ela foi diagnosticada há 13 anos com esclerose lateral amiotrófica (ELA), que causa uma perda progressiva do controle muscular. Das diversas manifestações da doença, Bennet tem uma versão que a permitiu continuar se movendo, mas que acabou impactando sua fala. Embora seu cérebro não esteja prejudicado em sua capacidade de gerar linguagem, os músculos de seus lábios, língua, laringe e mandíbula não permitem que ela diga nada.
Foram implantados pequenos chips em duas regiões do seu cérebro associados à linguagem: o córtex pré-motor ventral e a área de Broca (esta última não foi útil para o propósito do estudo). Em seguida, os pesquisadores da Universidade de Stanford treinaram esses implantes neurais e um software para reconhecer os sinais únicos no cérebro de Bennett quando ela tentava falar. Após quatro meses de aprendizado, o sistema combinou todas essas informações com um modelo de linguagem computacional que possibilitou à paciente produzir frases de 62 palavras por minuto.
Foram implantados pequenos chips em duas regiões do seu cérebro associados à linguagem: o córtex pré-motor ventral e a área de Broca (esta última não foi útil para o propósito do estudo). Em seguida, os pesquisadores da Universidade de Stanford treinaram esses implantes neurais e um software para reconhecer os sinais únicos no cérebro de Bennett quando ela tentava falar. Após quatro meses de aprendizado, o sistema combinou todas essas informações com um modelo de linguagem computacional que possibilitou à paciente produzir frases de 62 palavras por minuto.
Para esse estudo foram usados um grande conjunto de vocabulário de 125 mil palavras e depois um pequeno conjunto de 50 palavras. A IA decodifica palavras a partir de fonemas. Com o vocabulário menor, a taxa de erro de palavras foi de 9,1%, e passou para 23,8% quando usado o vocabulário mais extenso. Segundo Willett, a tecnologia consegue decifrar corretamente cerca de três em cada quatro palavras.
O outro estudo publicado na Nature foi realizado pelo neurocirurgião Edward Chang, da Universidade da Califórnia, em São Francisco, e seus colegas. Eles implantaram 253 eletrodos na superfície do córtex cerebral da americana Ann Johnson, de 48 anos. Há 18, ela perdeu a capacidade de falar devido a um acidente vascular cerebral (AVC).
A técnica usada por Chang é chamada de eletrocorticografia (ECoG), sendo considerada menos invasiva e capaz de registrar a atividade combinada de milhares de neurônios ao mesmo tempo. A equipe treinou algoritmos de IA para reconhecer padrões na atividade cerebral de Johnson associados às suas tentativas de falar 249 frases usando um vocabulário de 1.024 palavras. O dispositivo produziu 78 palavras por minuto com uma taxa média de erro de palavras de 25,5%.
Além de converter os sinais cerebrais em palavras escritas, a tecnologia possibilitou que a fala de Johnson fosse vocalizada e que expressões faciais fossem reproduzidas na tela do computador por um avatar, que pode exibir sorrisos, franzir a testa e realizar outras expressões.
Foi Johnson quem escolheu o avatar — um rosto parecido com o dela — para representá-la. Os pesquisadores usaram a gravação de seu discurso de casamento para desenvolver a voz do avatar.
“Estamos apenas tentando restaurar quem as pessoas são”, disse Edward Chang, em entrevista ao The New York Times.
“Isso me fez sentir como se fosse uma pessoa completa novamente”, declarou Johnson ao jornal americano.
Para funcionar, o implante de Johnson deve ser conectado por um cabo da cabeça dela a um computador. Mas a equipe da Universidade da Califórnia está desenvolvendo versões sem fio. Os pesquisadores esperam que as pessoas que perderam a fala possam conversar em tempo real por meio de imagens computadorizadas de si mesmas que transmitem tom, inflexão e emoções como alegria e raiva. As informações são do jornal O Globo e de agências internacionais de notícias.