Atualmente, pessoas que perderam a capacidade de falar depois de um derrame ou em decorrência de doença podem usar os olhos ou fazer outros pequenos movimentos para controlar um cursor ou selecionar letras na tela, caso de Stephen Hawking. Mas se uma interface cérebro-computador pudesse recriar sua fala diretamente, eles poderiam recuperar muito mais: controle sobre tom e inflexão, por exemplo, ou a capacidade interpor em uma conversa rápida.
Felizmente, três equipes de pesquisa fizeram progressos na transformação de dados de eletrodos, colocados cirurgicamente no cérebro, em fala gerada por computador. Usando modelos computacionais conhecidos como redes neurais, eles reconstruíram palavras e frases que, em alguns casos, eram inteligíveis para os ouvintes humanos.
Para Stephanie Martin, engenheira neural da Universidade de Genebra, na Suíça, mostrar o discurso reconstruído é compreensível e “definitivamente excitante”.
As observações e desafios das equipes de pesquisa
Os obstáculos são altos, diz Nina Mesgarani, cientista da computação da Universidade de Columbia. “Estamos tentando descobrir o padrão de neurônios que ligam e desligam em diferentes momentos, e inferimos o som da fala […] O mapeamento de um para o outro não é muito simples.”
Isso porque esses sinais se traduzem em sons de fala variando de pessoa para pessoa. Então os modelos de computador devem ser “treinados” em cada indivíduo. Eles funcionam melhor com dados extremamente precisos, o que requer a abertura do crânio.
Esse procedimento invasivo só é permitido em casos raros, como durante a remoção de um tumor cerebral. Neste caso, as leituras elétricas do cérebro exposto ajudam os cirurgiões a localizar e evitar as áreas-chave da fala e do motor. Outra situação é quando uma pessoa com epilepsia é implantada com eletrodos por vários dias para identificar a origem das convulsões antes do tratamento cirúrgico.
A equipe de Mesgarani se baseou em dados de cinco pessoas com epilepsia. Eles analisaram gravações do córtex auditivo (que está ativo durante a fala e a escuta). Os pacientes ouviram gravações de histórias e pessoas nomeando dígitos de zero a nove. O computador então reconstruiu os números falados apenas a partir de dados neurais, “falou” os números, e um grupo de ouvintes apontou 75% de precisão.
A equipe liderada pela cientista da computação Tanja Schultz, da Universidade de Bremen, na Alemanha, baseou-se em dados de seis pessoas submetidas a cirurgias de tumores cerebrais. Um microfone capturou suas vozes enquanto liam em voz alta palavras monossilábicas. Enquanto isso, eletrodos foram colocados nas áreas de planejamento de fala do cérebro e nas áreas motoras, que enviam comandos ao trato vocal para articular palavras.
Os cientistas da computação Miguel Angrick e Christian Herff, agora na Universidade de Maastricht, treinaram uma rede que mapeou leituras de eletrodos para as gravações de áudio, e depois reconstruiu palavras de dados do cérebro inéditos. De acordo com um sistema de pontuação informatizado, cerca de 40% das palavras geradas por computador eram compreensíveis.
Finalmente, o neurocirurgião Edward Chang e sua equipe da Universidade da Califórnia, em São Francisco, reconstruíram frases inteiras de atividades cerebrais capturadas de áreas motoras e de fala, enquanto três pacientes com epilepsia leram em voz alta. Em um teste on-line, 166 pessoas ouviram uma das frases e tiveram que selecioná-la entre 10 opções escritas. Algumas sentenças foram corretamente identificadas numa taxa de 80%.
Os pesquisadores também levaram o modelo adiante: eles o usaram para recriar frases a partir de dados gravados enquanto pessoas silenciosamente pronunciavam palavras. Esse é um resultado importante, diz Herff – “um passo mais perto da prótese de fala que todos nós temos em mente”.
No entanto, “O que estamos realmente esperando é como [esses métodos] vão ser feitos quando os pacientes não conseguem falar”, diz Stephanie Riès, neurocientista da Universidade Estadual de San Diego, na Califórnia, que estuda produção de linguagem. Os sinais cerebrais quando uma pessoa silenciosamente “fala” ou “ouve” a voz deles na cabeça não são idênticos aos sinais da fala ou da audição. Sem o som externo para combinar com a atividade cerebral, pode ser difícil para um computador separar onde a fala interna começa e termina.
Decodificar o discurso imaginado exigirá “um enorme salto”, diz Gerwin Schalk, um neuroengenheiro do Centro Nacional de Neurotecnologias Adaptativas do Departamento de Saúde do Estado de Nova York, em Albany. “Não está claro como isso deve ser feito.”
Uma abordagem, Herff diz, pode ser dar feedback ao usuário da interface cérebro-computador: se eles puderem ouvir a interpretação da fala do computador em tempo real, eles poderão ajustar seus pensamentos para obter o resultado desejado. Com treinamento suficiente de usuários e redes neurais, o cérebro e o computador podem se encontrar no meio.
Artigo produzido com informações do Science Magazine.