Biblia

Revelando cómo el cerebro entiende una voz en una multitud ruidosa

Revelando cómo el cerebro entiende una voz en una multitud ruidosa

Crédito: CC0 Public Domain

En una sala llena de gente donde muchas personas hablan, como una fiesta de cumpleaños familiar o un restaurante concurrido, nuestros cerebros tienen la capacidad de enfocar nuestra atención en un solo hablante. Comprender este escenario y cómo el cerebro procesa estímulos como el habla, el lenguaje y la música ha sido el foco de investigación de Edmund Lalor, Ph.D., profesor asociado de Neurociencia e Ingeniería Biomédica en el Centro Médico de la Universidad de Rochester.

Recientemente, su laboratorio encontró una nueva pista sobre cómo el cerebro es capaz de descomprimir esta información y escuchar intencionalmente a un hablante, mientras descarta o ignora a un hablante diferente. El cerebro en realidad está dando un paso adicional para comprender las palabras que provienen del hablante que se escucha, y no está dando ese paso con las otras palabras girando alrededor de la conversación. «Nuestros hallazgos sugieren que la acústica de la historia atendida y la historia desatendida o ignorada se procesan de manera similar», dijo Lalor. «Pero descubrimos que había una clara distinción entre lo que sucedió a continuación en el cerebro».

Para este estudio, publicado recientemente en The Journal of Neuroscience, los participantes escucharon simultáneamente dos historias, pero se les pidió que enfocaran sus atención en uno solo. Usando grabaciones de ondas cerebrales de EEG, los investigadores encontraron que la historia a la que se les pidió que prestaran atención a los participantes se convirtió en unidades lingüísticas conocidas como fonemas, que son unidades de sonido que pueden distinguir una palabra de otra, mientras que la otra historia no lo era. «Esa conversión es el primer paso para comprender la historia atendida», dijo Lalor. «Los sonidos deben ser reconocidos como correspondientes a categorías lingüísticas específicas como fonemas y sílabas, de modo que podamos determinar en última instancia qué palabras se pronuncian, incluso si suenan diferentes, por ejemplo, si las pronuncian personas con diferentes acentos o diferentes tonos de voz». Los coautores de este artículo incluyen al estudiante graduado de Rochester Farhin Ahmed y Emily Teoh del Trinity College, Universidad de Dublín. La investigación fue financiada por la Fundación de Ciencias de Irlanda, el Consejo Irlandés de Investigación del Gobierno de Irlanda, el Programa Piloto del Instituto Del Monte para la Neurociencia y el Instituto Nacional de Sordera y Otros Trastornos de la Comunicación.

Este trabajo es una continuación de un estudio de 2015 dirigido por Lalor que se publicó en la revista Cerebral Cortex. Esa investigación recibió recientemente el Premio Misha Mahowald de Ingeniería Neuromórfica 2021 por su impacto en la tecnología destinada a ayudar a los humanos discapacitados a mejorar la interacción sensorial y motora con el mundo, como desarrollar mejores dispositivos portátiles, por ejemplo, audífonos. La investigación se originó en el Taller de cognición de ingeniería neuromórfica de Telluride de 2012 y condujo al proyecto de audífonos controlados cognitivamente de una institución multisocio financiado por la Unión Europea, que demostró con éxito un sistema de decodificación de atención auditiva en tiempo real.

«Recibir este premio es un gran honor en dos sentidos. En primer lugar, generalmente es muy agradable ser reconocido por los compañeros por haber producido un trabajo valioso e impactante. Esta comunidad está formada por neurocientíficos e ingenieros, por lo que ser reconocido por ellos es muy gratificante”, dijo Lalor. «Y, en segundo lugar, es un gran honor estar conectado con Misha Mashowald, quien fue pionera en el campo de la ingeniería neuromórfica y falleció demasiado joven».

John Foxe, Ph.D., director del Instituto Del Monte para la Neurociencia fue coautor de este estudio que mostró que era posible usar señales de ondas cerebrales EEG para determinar a quién estaba prestando atención una persona en un entorno de múltiples altavoces. Fue un trabajo novedoso en el sentido de que fue más allá del enfoque estándar de observar los efectos en las señales cerebrales promedio. «Nuestra investigación mostró que casi en tiempo real podíamos decodificar señales para determinar con precisión a quién estabas prestando atención», dijo Lalor.

Explore más

Los investigadores avanzan un paso más hacia la comprensión de cómo el cerebro procesa múltiples conversaciones a la vez Más información: Emily S. Teoh et al, La atención afecta diferencialmente la codificación de características acústicas y fonéticas en un entorno multiparlante, The Journal of Neuroscience (2021). DOI: 10.1523/JNEUROSCI.1455-20.2021

James A. O’Sullivan et al, Attentional Selection in a Cocktail Party Environment Can Be Decoded from Single-Trial EEG, Cerebral Cortex (2014). DOI: 10.1093/cercor/bht355 Información de la revista: Journal of Neuroscience , Cerebral Cortex