Pesquisadores desenvolveram uma interface cérebro-computador (BCI) com inteligência artificial (IA) que permitiu que uma paciente com Esclerose Lateral Amiotrófica (ELA) se comunicasse usando seus pensamentos.
Para quem tem pressa:
A paciente Pat Bennett teve quatro sensores do tamanho de comprimidos implantados em seu cérebro. Eles transmitem sinais de regiões cerebrais relacionadas à fala para um software avançado. Esse programa decodifica sua atividade cerebral em texto, que é exibido na tela do computador.
A tecnologia, divulgada pelo Stanford University Medical Center, ainda está em fase experimental e de pesquisa. Mas já oferece esperança aos indivíduos que perderam a capacidade de falar devido a doenças neurodegenerativas.
Em entrevista (por e-mail) ao portal de notícias da universidade, Pat escreveu:
Imagine quão diferente será a realização de atividades cotidianas, como fazer compras, comparecer a compromissos, pedir comida, ir ao banco, falar ao telefone, expressar amor ou carinho – até mesmo discutir – quando pessoas não-verbais puderem comunicar seus pensamentos em palavras tempo real.
IA, a doença e a paciente
No caso de Pat, diagnosticada com ELA em 2012, a doença afetou o tronco cerebral, em vez da medula espinhal, que costuma ser o primeiro lugar impactado. Como resultado, ela perdeu a capacidade de enunciar fonemas – os blocos de construção da fala.
Os pesquisadores começaram com um sistema capaz de decodificar palavras a partir de fonemas. Eles ensinaram ao sistema 39 fonemas, o suficiente para decifrar qualquer palavra em inglês.
Em 2022, os neurocirurgiões implantaram dois sensores, cada um em duas regiões cerebrais distintas, implicadas na produção da fala. Esses sensores, juntamente ao software de decodificação avançado, traduziram a atividade cerebral de Bennett durante as tentativas de fala em palavras exibidas numa tela.
Depois de treinar o software durante quatro meses, as tentativas de fala de Bennett foram convertidas em palavras a uma velocidade recorde de 62 palavras por minuto, três vezes mais rápido do que os registros anteriores de comunicação assistida pelo BCI.
Assista abaixo a uma demonstração da interface com inteligência artificial, publicada pela revista científica Nature:
Como funciona
Os sensores implantados consistem em conjuntos quadrados de minúsculos eletrodos de silício ligados a fios finos de ouro.
O algoritmo decodifica a atividade cerebral associada a cada um dos 39 fonemas, alimentando essa informação num modelo de linguagem que converte fluxos de fonemas em sequências de palavras. É aqui onde a inteligência artificial entra no processo.
Embora a tecnologia ainda não esteja disponível comercialmente, ela é uma promessa imensa para restaurar a comunicação em pacientes com doenças neurodegenerativas.
O estudo foi conduzido como parte do BrainGate, um consórcio dedicado ao avanço dos BCIs em aplicações protéticas.
Fonte: Olhar Digital
Comentários