Programa informático convierte señales cerebrales en voz sintética
ARRIBA: El coautor Gopala Anumanchipalli sostiene el tipo de matriz de electrodos intracraneales utilizada en el estudio. UCSF
Un nuevo programa informático traduce las señales cerebrales al lenguaje. La tecnología rastrea los mensajes eléctricos que se transmiten a los músculos dentro y alrededor de la boca para descifrar lo que el cerebro está tratando de decir. Se necesitan más pruebas, pero los desarrolladores dicen que podría usarse para diseñar implantes cerebrales para ayudar a las personas que han sufrido un derrame cerebral o una enfermedad cerebral a comunicarse.
“Queremos crear tecnologías que puedan reproducir el habla directamente de actividad cerebral humana” Edward Chang, neurocirujano de la Universidad de California en San Francisco, quien dirigió la investigación, durante una conferencia de prensa. «Este estudio proporciona una prueba de principio de que esto es posible». Él y sus colegas describen los resultados en Nature hoy (24 de abril).
La técnica es altamente invasiva y se basa en electrodos colocados profundamente en el cerebro. Como tal,…
Eso probablemente será más difícil, dice Nick Ramsey, neurocientífico del Centro Médico Universitario de Utrecht en los Países Bajos, que trabaja en implantes cerebrales para ayudar a las personas con síndrome de enclaustramiento a comunicarse. , a pesar de la parálisis generalizada de sus músculos. Todavía es una pregunta abierta si podrá obtener suficientes datos cerebrales de personas que no pueden hablar para construir su decodificador, pero dice que el estudio es elegante y sofisticado y los resultados son prometedores. He seguido su trabajo durante un par de años y realmente entienden lo que están haciendo.
El habla es una de las acciones motrices más complejas del cuerpo humano. Requiere un control neural preciso y la coordinación de los músculos de los labios, la lengua, la mandíbula y la laringe. Para decodificar esta actividad, los científicos utilizaron los electrodos implantados para rastrear las señales enviadas desde el cerebro cuando los voluntarios leen en voz alta una serie de oraciones. Un algoritmo informático analizó estas instrucciones utilizando un modelo preexistente de cómo se mueve el tracto vocal para producir sonidos. Luego, una segunda etapa de procesamiento convirtió estos movimientos predichos en oraciones habladas.
Este enfoque de dos etapas que traduce la actividad cerebral en movimientos motores y luego los movimientos motores en palabras produce menos distorsión que tratar de convertir directamente las señales cerebrales en habla, Chang dice. Cuando el equipo mostró 101 oraciones sintetizadas a los oyentes y les pidió que identificaran las palabras habladas de una lista de 25 palabras, transcribieron el 43 por ciento de ellas con precisión.
Qinwan Rabbani, estudiante de posgrado que trabaja en sistemas similares en la Universidad Johns Hopkins, escuchó las oraciones sintetizadas y dice que son buenas, especialmente porque la computadora solo tenía una docena de minutos de habla para analizar. Los algoritmos que decodifican el habla generalmente necesitan días o semanas de grabaciones de audio, dice.
Las señales cerebrales que controlan el habla son más complicadas de decodificar que las que se usan para, por ejemplo, mover los brazos y las piernas, y son más fácilmente influenciables por Estado emocional y cansancio. Eso significa que un sistema de habla sintética eventualmente aplicado a pacientes paralizados probablemente estaría restringido a un conjunto limitado de palabras, dice Rabbani.
GK Anumanchipalli et al., Síntesis del habla a partir de la decodificación neuronal de oraciones habladas, Nature, doi:10.1038/s41586-019-1119-1, 2019.
¿Interesado en leer más?
La Científico ARCHIVOS
Conviértase en miembro de
Reciba acceso completo a más de 35 años de archivos, así como a TS Digest , ediciones digitales de The Scientist, artículos y mucho más. Únase gratis hoy ¿Ya es miembro? Entre aquí