Inteligência artificial transforma atividade cerebral em fala

Data:

atividade cerebral
Créditos: archy13 | iStock

Atualmente, pessoas que perderam a capacidade de falar depois de um derrame ou em decorrência de doença podem usar os olhos ou fazer outros pequenos movimentos para controlar um cursor ou selecionar letras na tela, caso de Stephen Hawking. Mas se uma interface cérebro-computador pudesse recriar sua fala diretamente, eles poderiam recuperar muito mais: controle sobre tom e inflexão, por exemplo, ou a capacidade interpor em uma conversa rápida.

Felizmente, três equipes de pesquisa fizeram progressos na transformação de dados de eletrodos, colocados cirurgicamente no cérebro, em fala gerada por computador. Usando modelos computacionais conhecidos como redes neurais, eles reconstruíram palavras e frases que, em alguns casos, eram inteligíveis para os ouvintes humanos.

Para Stephanie Martin, engenheira neural da Universidade de Genebra, na Suíça, mostrar o discurso reconstruído é compreensível e "definitivamente excitante".

As observações e desafios das equipes de pesquisa

Os obstáculos são altos, diz Nina Mesgarani, cientista da computação da Universidade de Columbia. "Estamos tentando descobrir o padrão de neurônios que ligam e desligam em diferentes momentos, e inferimos o som da fala [...] O mapeamento de um para o outro não é muito simples."

Isso porque esses sinais se traduzem em sons de fala variando de pessoa para pessoa. Então os modelos de computador devem ser "treinados" em cada indivíduo. Eles funcionam melhor com dados extremamente precisos, o que requer a abertura do crânio.

Esse procedimento invasivo só é permitido em casos raros, como durante a remoção de um tumor cerebral. Neste caso, as leituras elétricas do cérebro exposto ajudam os cirurgiões a localizar e evitar as áreas-chave da fala e do motor. Outra situação é quando uma pessoa com epilepsia é implantada com eletrodos por vários dias para identificar a origem das convulsões antes do tratamento cirúrgico.

A equipe de Mesgarani se baseou em dados de cinco pessoas com epilepsia. Eles analisaram gravações do córtex auditivo (que está ativo durante a fala e a escuta). Os pacientes ouviram gravações de histórias e pessoas nomeando dígitos de zero a nove. O computador então reconstruiu os números falados apenas a partir de dados neurais, “falou” os números, e um grupo de ouvintes apontou 75% de precisão.

A equipe liderada pela cientista da computação Tanja Schultz, da Universidade de Bremen, na Alemanha, baseou-se em dados de seis pessoas submetidas a cirurgias de tumores cerebrais. Um microfone capturou suas vozes enquanto liam em voz alta palavras monossilábicas. Enquanto isso, eletrodos foram colocados nas áreas de planejamento de fala do cérebro e nas áreas motoras, que enviam comandos ao trato vocal para articular palavras.

inteligência artificial
Créditos: sarayut | iStock

Os cientistas da computação Miguel Angrick e Christian Herff, agora na Universidade de Maastricht, treinaram uma rede que mapeou leituras de eletrodos para as gravações de áudio, e depois reconstruiu palavras de dados do cérebro inéditos. De acordo com um sistema de pontuação informatizado, cerca de 40% das palavras geradas por computador eram compreensíveis.

Finalmente, o neurocirurgião Edward Chang e sua equipe da Universidade da Califórnia, em São Francisco, reconstruíram frases inteiras de atividades cerebrais capturadas de áreas motoras e de fala, enquanto três pacientes com epilepsia leram em voz alta. Em um teste on-line, 166 pessoas ouviram uma das frases e tiveram que selecioná-la entre 10 opções escritas. Algumas sentenças foram corretamente identificadas numa taxa de 80%.

Os pesquisadores também levaram o modelo adiante: eles o usaram para recriar frases a partir de dados gravados enquanto pessoas silenciosamente pronunciavam palavras. Esse é um resultado importante, diz Herff - "um passo mais perto da prótese de fala que todos nós temos em mente".

No entanto, "O que estamos realmente esperando é como [esses métodos] vão ser feitos quando os pacientes não conseguem falar", diz Stephanie Riès, neurocientista da Universidade Estadual de San Diego, na Califórnia, que estuda produção de linguagem. Os sinais cerebrais quando uma pessoa silenciosamente "fala" ou "ouve" a voz deles na cabeça não são idênticos aos sinais da fala ou da audição. Sem o som externo para combinar com a atividade cerebral, pode ser difícil para um computador separar onde a fala interna começa e termina.

Decodificar o discurso imaginado exigirá "um enorme salto", diz Gerwin Schalk, um neuroengenheiro do Centro Nacional de Neurotecnologias Adaptativas do Departamento de Saúde do Estado de Nova York, em Albany. "Não está claro como isso deve ser feito."

Uma abordagem, Herff diz, pode ser dar feedback ao usuário da interface cérebro-computador: se eles puderem ouvir a interpretação da fala do computador em tempo real, eles poderão ajustar seus pensamentos para obter o resultado desejado. Com treinamento suficiente de usuários e redes neurais, o cérebro e o computador podem se encontrar no meio.

Artigo produzido com informações do Science Magazine .

Juristas
Juristashttp://juristas.com.br
O Portal Juristas nasceu com o objetivo de integrar uma comunidade jurídica onde os internautas possam compartilhar suas informações, ideias e delegar cada vez mais seu aprendizado em nosso Portal.

Deixe um comentário

Compartilhe

Inscreva-se

Últimas

Recentes
Veja Mais

Quero doar bens que seriam dos herdeiros para filantropia. É possível?

Desde o advento da Pandemia de Covid-19, cresceu a preocupação de pessoas sobre o que fazer com o seu patrimônio em caso de morte. Isto já é bem comum entre os super ricos e, agora, também dos casais sem filhos. Mas há certo objetivo: como não deixar herança, seja em razão de facilitar a sucessão e diminuir valores de Imposto de Transmissão Causa Mortis, seja apenas com a intenção de ajudar projetos de filantropia.

A importância da gestão de fornecedores para o cumprimento da LGPD

De acordo com o relatório Global Cybersecurity Outlook 2024, publicado em janeiro pelo World Economic Forum [1] 41% das organizações que sofreram um incidente de segurança nos últimos 12 meses afirmam que foi causado por terceiros. A pesquisa “Close encounters of the third (and fouth) party kind”, publicada em janeiro de 2023 pela Security Scorecard, por sua vez, aponta entre os seus achados que 98% das organizações têm relacionamento com pelo menos um terceiro que sofreu uma violação de segurança nos últimos dois anos; e que para cada fornecedor terceirizado em sua cadeia de suprimentos, as organizações normalmente têm relacionamentos indiretos com 60 a 90 vezes esse número de terceiros [2].

"Saidinha" de presos: menos ideologia, mais racionalidade

O Senado votou e aprovou, nesta semana, o Projeto de Lei (PL) 2.253/2022, que acaba com a saída temporária de presos condenados em datas comemorativas e feriados, a “saidinha”. Ficam mantidas apenas as liberações, com período determinado, para detentos inscritos em cursos profissionalizantes ou nos ensinos médio e superior, e, ainda assim, somente pelo tempo necessário para a realização destas atividades.

Autorias marginalizadas e a costura do domínio público

Os direitos autorais são espécies de direitos de propriedade intelectual, que conferem retribuição financeira e reconhecimento a criadores de determinados bens artísticos, científicos e culturais. Não é de amplo conhecimento, no entanto, a relação dos direitos autorais com os direitos humanos, sobretudo no que concerne à valorização da dignidade humana e da diversidade cultural.