Biblia

¿Discurso o canción? Identificar cómo el cerebro percibe la música

¿Discurso o canción? Identificar cómo el cerebro percibe la música

Crédito: Pixabay/CC0 Dominio público

La mayoría de los neurocientíficos que estudian música tienen algo en común: tocan un instrumento musical, en muchos casos desde una edad temprana. Su impulso por comprender cómo percibe el cerebro y cómo la música le da forma surge de un profundo amor por la música. Esta pasión se ha traducido en una gran cantidad de descubrimientos sobre la música en el cerebro, incluido un trabajo reciente que identifica las formas en que el cerebro distingue entre la música y el habla, como se presentará hoy en la reunión anual de la Sociedad de Neurociencia Cognitiva (CNS) en San Francisco.

«Durante las últimas dos décadas, muchos estudios excelentes han demostrado mecanismos similares entre el habla y la música en muchos niveles», dice Andrew Chang de la Universidad de Nueva York, violinista de toda la vida, que organizó un simposio sobre la percepción de la música y el habla en el CNS. reunión. «Sin embargo, una pregunta fundamental, a menudo pasada por alto, es qué hace que el cerebro trate la música y las señales del habla de manera diferente, y por qué los humanos necesitan dos señales auditivas distintas».

Nuevo trabajo, habilitado en parte por avances computacionales, apunta hacia las diferencias en el tono y el ritmo como factores clave que permiten a las personas desde la infancia distinguir el habla de la música, así como también cómo las capacidades predictivas del cerebro subyacen a la percepción del habla y la música.

Explorando la percepción acústica en bebés

Desde muy joven, la neurocientífica cognitiva Christina Vanden Bosch der Nederlanden de la Universidad de Toronto, Mississauga, ha estado cantando y tocando el violonchelo, lo que ha ayudado a dar forma a su carrera investigadora. «Recuerdo estar sentada en medio de la sección de violonchelos y tocábamos una música particularmente hermosa, una donde toda la sección de violonchelos tenía la melodía», dice, «y recuerdo haber tenido esta respuesta emocional y preguntarme ‘¿cómo es posible que yo pueda ¿Tengo una respuesta emocional tan fuerte de las vibraciones de mis cuerdas que viajan a mi oído? ¡Eso parece una locura!'».

Esa experiencia inició der Nederlanden en un largo viaje de querer comprender cómo el cerebro procesa la música y el habla. en desarrollo temprano. Específicamente, ella y sus colegas están investigando si los bebés, que están aprendiendo sobre los sonidos comunicativos a través de la experiencia, saben la diferencia entre el habla y el canto.

«Estas son preguntas aparentemente simples que en realidad tienen mucha importancia teórica sobre cómo aprendemos a comunicarnos», dice ella. «Sabemos que a partir de los 4 años, los niños pueden y fácilmente diferencian explícitamente entre música y lenguaje. Aunque eso parece bastante obvio, ha habido pocos o ningún dato que pida a los niños que hagan este tipo de distinciones».

En la reunión de CNS, der Nederlanden presentará nuevos datos recopilados justo antes y durante la pandemia de COVID-19 sobre las características acústicas que dan forma a la música y el lenguaje durante el desarrollo. En un experimento, los bebés de 4 meses escucharon el habla y el canto, tanto de manera cantarina dirigida por el bebé como con una voz monótona, mientras registraban la actividad eléctrica del cerebro con un electroencefalograma (EEG).

«Este trabajo sugiere de manera novedosa que los bebés son mejores en el seguimiento de las expresiones dirigidas por los bebés cuando se les habla en comparación con las cantadas, y esto es diferente de lo que vemos en los adultos que son mejores en el seguimiento neural cantado en comparación con expresiones habladas», dice. También encontraron que el tono y el ritmo afectaban la actividad cerebral del habla en comparación con la canción, por ejemplo, y encontraron que el tono exagerado estaba relacionado con un mejor seguimiento neuronal del habla dirigida por bebés, identificando la falta de «estabilidad del tono» como una característica acústica importante para guiar la atención. en bebes

Si bien los contornos de tono exagerados e inestables del habla dirigida por bebés se han establecido como una característica que les encanta a los bebés, esta nueva investigación muestra que también ayuda a señalar si alguien está escuchando un habla o una canción. La estabilidad del tono es una característica, dice der Nederlanden, que «podría indicarle a un oyente ‘oh, esto suena como si alguien estuviera cantando'», y la falta de estabilidad del tono puede, por el contrario, indicar a los bebés que están escuchando el habla en lugar de jugar con los sonidos en una canción. .

En un experimento en línea, der Nederlanden y sus colegas pidieron a niños y adultos que describieran cualitativamente en qué se diferencian la música y el lenguaje. «Esto me dio un rico conjunto de datos que me dice mucho sobre cómo la gente piensa que la música y el lenguaje difieren acústicamente y también en términos de cómo los roles funcionales de la música y el lenguaje difieren en nuestra vida cotidiana», explica. «Para las diferencias acústicas, los niños y los adultos describieron características como el tempo, el tono y el ritmo como características importantes para diferenciar el habla y el canto».

En el trabajo futuro, der Nederlanden espera avanzar hacia entornos más naturales, incluido el uso EEG móvil para probar el procesamiento de la música y el lenguaje fuera del laboratorio. «Creo que la chica sentada en el foso de la orquesta, interesada en la música y las emociones, estaría muy emocionada de descubrir que todavía está haciendo preguntas sobre música y encontrando resultados que podrían haber respondido a sus preguntas de hace más de 20 años».

Identificar el código predictivo de la música

Guilhem Marion de Ecole Normale Suprieure tiene dos pasiones que impulsan su investigación: la música y la informática. Ha combinado esos intereses para crear nuevos modelos computacionales de música que están ayudando a los investigadores a comprender cómo el cerebro percibe la música a través de la «codificación predictiva», similar a cómo las personas predicen patrones en el lenguaje.

«La teoría de la codificación predictiva explica cómo el cerebro trata de predecir la siguiente nota mientras escucha música, que es exactamente lo que hacen los modelos computacionales de música para generar nueva música», explica. Marion está utilizando esos modelos para comprender mejor cómo la cultura afecta la percepción de la música, al obtener conocimiento basado en entornos y conocimientos individuales.

En un nuevo trabajo realizado con Giovanni Di Liberto y sus colegas, Marion registró la actividad EEG de 21 músicos profesionales que escuchaban o imaginaban en sus mentes cuatro piezas corales de Bach. En un estudio, pudieron identificar la cantidad de sorpresa de cada nota, utilizando un modelo computacional basado en una gran base de datos de música occidental. Esta sorpresa fue un «marcador cultural del procesamiento de la música», dice Marion, que muestra cuán cerca se predijeron las notas en función del entorno musical nativo de una persona.

«Nuestro estudio mostró por primera vez la respuesta EEG promedio a las notas musicales imaginadas y demostró que estaban correlacionadas con la sorpresa musical calculada utilizando un modelo estadístico de la música», dice Marion. «Este trabajo tiene amplias implicaciones en la cognición musical, pero más en general en la neurociencia cognitiva, ya que iluminará la forma en que el cerebro humano aprende un nuevo lenguaje u otras estructuras que luego darán forma a su percepción del mundo».

Chang dice que dicho trabajo basado en computación está permitiendo un nuevo tipo de estudio de cognición musical que equilibra un buen control experimental con validez ecológica, algo desafiante para la complejidad involucrada en la música y los sonidos del habla. «A menudo haces que los sonidos no sean naturales si todo está bien controlado para tu propósito experimental o preservas sus propiedades naturales del habla o la música, pero luego se vuelve difícil comparar los sonidos entre las condiciones experimentales», explica. «El enfoque innovador de Marion y Di Liberto permite a los investigadores investigar, e incluso aislar, las actividades neuronales mientras escuchan un discurso natural continuo o una grabación de música».

Chang, que toca el violín desde que tenía 8 años. años, está emocionado de ver el progreso que se ha logrado en los estudios de cognición musical en la última década. «Cuando comencé mi doctorado en 2013, solo unos pocos laboratorios en el mundo se enfocaban en la música», dice. «Pero ahora hay muchos investigadores junior excelentes e incluso investigadores senior bien establecidos de otros campos, como el habla, en todo el mundo que comienzan a involucrarse o incluso se dedican a la investigación de la neurociencia cognitiva de la música».

Comprender la relación entre la música y el lenguaje «puede ayudarnos a explorar las cuestiones fundamentales de la cognición humana, como por qué los humanos necesitan la música y el habla, y cómo los humanos se comunican e interactúan entre sí a través de estas formas», dice Chang. «Además, estos hallazgos son la base de las posibles aplicaciones en los dominios clínicos y de desarrollo infantil, como si la música se puede usar como una forma alternativa de comunicación verbal para las personas con afasia y cómo la música facilita el aprendizaje del habla en los bebés».

Explore más

La música imaginaria y el silencio desencadenan una actividad cerebral similar Proporcionado por la Sociedad de Neurociencia Cognitiva Cita: ¿Discurso o canción? Identificación de cómo el cerebro percibe la música (2022, 27 de abril) recuperado el 29 de agosto de 2022 de https://medicalxpress.com/news/2022-04-speech-song-brain-music.html Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.