Inteligência artificial cria avatar para comunicação de paciente … – USP
Tecnologia é capaz de interpretar as instruções que o cérebro usaria para comandar os músculos do trato vocal, possibilitando
Tecnologia é capaz de interpretar as instruções que o cérebro usaria para comandar os músculos do trato vocal, possibilitando a comunicação mesmo em casos de paralisia e perda da fala
Na coluna de hoje (12), o professor Octavio Pontes relata que uma interface cérebro-computador (ICC) permitiu que uma mulher paralisada, que perdeu a capacidade de falar devido a um derrame no tronco cerebral, se comunicasse por meio de um avatar digital.
Segundo ele, uma equipe de pesquisadores da Universidade da Califórnia em São Francisco (UCSF) e em Berkeley conseguiu sintetizar pela primeira vez sinais cerebrais em fala audível e expressões faciais. Edward Chang, chefe de cirurgia neurológica da UCSF e membro da equipe que trabalha na tecnologia há mais de uma década, explica que o objetivo é permitir a incorporação completa da comunicação da fala humana, que vai além das palavras.
“Os pesquisadores acreditam que essa conquista representa um marco importante, indo além da prova de conceito, e pode se tornar uma opção viável para pessoas paralisadas. A pesquisa foi publicada na revista Nature em 23 de agosto”, diz Pontes, e completa que, em um estudo anterior, “a equipe de Chang demonstrou ser possível capturar a atividade cerebral de uma pessoa paralisada que tentava falar e traduzir essa atividade em palavras exibidas em uma tela”.
Para 0 neurologista e professor da USP de Ribeirão Preto, o novo estudo vai além: “Os pesquisadores conseguiram decodificar os sinais cerebrais não apenas em texto, mas também em fala audível sintética, com movimentos faciais precisos em um avatar. Para isso, eles implantaram uma matriz fina com 253 eletrodos na superfície do cérebro da mulher, sobre áreas críticas para a fala. Esses eletrodos interceptaram sinais cerebrais que, caso não fossem pelo derrame, teriam sido direcionados aos músculos da língua, mandíbula, laringe e face”, explica.
Os pesquisadores, conta Pontes, treinaram modelos de aprendizado profundo, usando dados neurais coletados enquanto a mulher tentava silenciosamente formar frases. Depois de repetir diferentes frases várias vezes, o computador reconheceu os padrões de atividade cerebral associados aos sons.
O minuto do Cérebro
A coluna O minuto do Cérebro, com o professor Octávio Pontes Neto, vai ao ar quinzenalmente, terça-feira às 8h30, na Rádio USP (São Paulo 93,7; Ribeirão Preto 107,9) e também no Youtube, com produção da Rádio USP, Jornal da USP e TV USP.
.
A reprodução de matérias e fotografias é livre mediante a citação do Jornal da USP e do autor. No caso dos arquivos de áudio, deverão constar dos créditos a Rádio USP e, em sendo explicitados, os autores. Para uso de arquivos de vídeo, esses créditos deverão mencionar a TV USP e, caso estejam explicitados, os autores. Fotos devem ser creditadas como USP Imagens e o nome do fotógrafo.
Por Ana Elisa Liberatore S. Bechara, professora de Direito Penal e vice-diretora da Faculdade de Direito da USP
Por Bruno Gualano, professor da Faculdade de Medicina da USP, e Cláudio Geraldo Schön, professor da Escola Politécnica da USP
Por Rogério de Almeida, professor da Faculdade de Educação da USP e membro da CAI