O astrofísico Stephen Hawking, que morreu em março do ano passado, não era capaz de manter um diálogo. Quando aceitava uma entrevista, o repórter enviava as perguntas com antecedência, para que o professor de Cambridge digitasse as respostas de antemão, letra por letra. Só então o sintetizador de timbre metálico as pronunciava. Para comandar o monitor, Hawking movia um músculo da bochecha – uma das únicas partes do corpo que controlava.
Agora, neurocientistas da Universidade da Califórnia em São Francisco deram um passo importante para evitar que pessoas como Hawking (que sofria de esclerose lateral amiotrófica, ELA) fiquem presas dentro de seus corpos – incapazes de expressar seus desejos e intenções em tempo real.
A equipe de Edward Chang desenvolveu um software capaz de ler a atividade cerebral de uma pessoa com deficiência e transformá-la frases sem intermédio da boca. Em bom português: esse troço lê pensamentos. O método é descrito em um artigo científico publicado no periódico Nature Communications.
A ficção científica tem limite, é claro. O software – que foi financiado pelo Facebook – só reconhece e transcreve sequências de palavras simples, com as quais já foi treinado.
Mesmo assim, é um marco importante: nunca antes os sinais eletroquímicos correspondentes à intenção de dizer alguma coisa haviam sido transformados em texto escrito rápido o suficiente para permitir um diálogo com certa naturalidade.
“Essa é a primeira vez que este método é usado para identificar palavras e frases faladas”, afirmou ao Guardian David Moses, um dos pesquisadores. “É importante manter em mente que nós conseguimos isso usando um vocabulário muito limitado. No futuro, queremos aumentar a flexibilidade e a precisão da decodificação.”
O experimento foi realizado da seguinte forma. Primeiro, Chang e sua equipe recrutaram três pacientes com epilepsia que estavam em um hospital. Eles entraram no rolo porque seus cérebros já estavam com eletrodos posicionados para a realização de outros exames – o que facilitou a realização do experimento (já pensou abrir a cabeça de alguém só para um teste preliminar?).
Então, cada um dos três voluntários leu em voz alta um conjunto de nove questões e outro conjunto de 24 prováveis respostas para essas questões. Assim, a máquina pode aprender qual é a natureza dos sinais que o cérebro manda para os músculos da boca em cada caso.
Por fim, os pacientes imaginaram que estavam ouvindo essas perguntas e tentando respondê-las – mas sem de fato pronunciar a sequência de palavras em voz alta ou mover os lábios. O software então adivinhou qual pergunta o paciente havia ouvido com 76% de precisão – e previu sua resposta com 61%.
Não é nenhum milagre, é claro. Mas é um passo promissor – vale ficar de olho nos desdobramentos.
Neurocientistas traduzem sinais cerebrais em texto escrito Publicado primeiro em https://super.abril.com.br/feed
Nenhum comentário:
Postar um comentário