Científicos de Estados Unidos analizaron cómo se procesan a nivel neurológico los distintos componentes de una canción como el tono y la melodía, entre otros.
Por Infobae
La música es una atractiva mezcla de sonidos y de ritmo que, lejos de encasillarse en una mera distracción, exige un trabajo coordinado de diversas áreas del cerebro humano, activando circuitos y regiones en ambos hemisferios.
Esta dinámica está bajo la óptica científica, toda vez que puede ser útil para comprender toda clase de procesos neurológicos. Es lo que, en rigor, sucedió recientemente en una sala de cirugía especialmente preparada en el Albany Medical Center, en Estados Unidos. Allí, la música de la banda británica Pink Floyd se convirtió en más que un acompañamiento sonoro.
La histórica canción “Another Brick in the Wall, Part 1” fue objeto de un estudio que buscó entender cómo el cerebro humano procesa los sonidos musicales.
El trabajo, que fue dirigido por un equipo de neurocientíficos de la Universidad de California, Berkeley, tenía como objetivo principal registrar la actividad cerebral asociada con diferentes aspectos de la música, como por ejemplo el tono, el ritmo, la armonía y las letras.
La investigación, que fue publicada en la revista PLOS Biology, se desarrolló durante más de una década y se centró en cómo las diferentes dimensiones sonoras se procesan en las áreas del cerebro. Para llevar a cabo el experimento, los autores utilizaron una técnica llamada electrocorticografía (ECoG), mediante la cual se implantaron electrodos en la superficie cerebral de los participantes, quienes eran pacientes con epilepsia que ya tenían programada una cirugía.
Los electrodos capturaron la actividad eléctrica en regiones neurológicas específicas mientras los individuos escuchaban la canción de la banda británica.
Los resultados mostraron que diferentes áreas del cerebro son responsables de procesar diferentes aspectos de la música. Por ejemplo, el lóbulo temporal se activó con el tono y la melodía, mientras que el lóbulo frontal mostró una mayor actividad ante el ritmo y la armonía. De todos modos, el hallazgo más sorprendente fue que los investigadores pudieron reconstruir parte de la canción de Pink Floyd, únicamente, a partir de estos registros de la actividad cerebral y sin necesidad de escuchar directamente la pieza artística.
Utilizando algoritmos de aprendizaje automático con Inteligencia Artificial, la frase “en definitiva, era solo un ladrillo en la pared” se pudo identificar en la canción reconstruida, con ritmos y palabras que se podían entender claramente.
Así las cosas, este estudio no solo arrojó luz sobre cómo el cerebro procesa la música, sino que también abrió nuevas vías para la investigación en neurociencia. Para los autores, los resultados “podrían tener aplicaciones en la rehabilitación de pacientes con trastornos del habla o del movimiento, ya que la música tiene un impacto significativo en estas áreas. Además, podrían ser útiles para desarrollar terapias basadas en la música para tratar diversas condiciones, como la depresión y la ansiedad”.
El equipo de investigación también se centró en cómo la actividad cerebral cambia con diferentes géneros de música. Se observó, en ese sentido, que la ópera, la música clásica y el jazz activaban áreas del cerebro relacionadas con la memoria y la emoción, mientras que el rock y el pop mostraban una mayor actividad en las regiones asociadas con el ritmo y la coordinación. Esto sugiere que diferentes géneros de música podrían tener diferentes efectos terapéuticos, lo que podría ser una vía de investigación futura.
La canción de Pink Floyd reconstruida por los científicos a partir de la actividad cerebral
“Es un resultado maravilloso el que encontramos”, analizó Robert Knight, uno de los autores del trabajo, neurólogo y profesor de psicología en el Instituto de Neurociencia Helen Wills de UC Berkeley.
“Una de las cosas que para mí tiene la música es que tiene prosodia (pronunciación y acentuación) y contenido emocional. A medida que avanza todo este campo de las interfaces cerebro-máquina de IA, esto te brinda una manera de agregar musicalidad a futuros implantes cerebrales para personas que lo necesitan, alguien que tiene ELA o algún otro trastorno neurológico o del desarrollo incapacitante que comprometa la producción del habla”, sumó Knight.
Y destacó: “El método que utilizamos te da la capacidad de decodificar no sólo el contenido lingüístico, sino parte del contenido prosódico del habla, parte del afecto que contiene una frase. Creo que eso es lo que realmente hemos comenzado a descifrar. El lenguaje es más del lado izquierdo del cerebro, mientras que la música está más distribuida entre ambos lados, con un pequeño sesgo hacia el lado derecho”.
Según Knight, “a medida que mejoren las técnicas de registro cerebral, algún día será posible realizar dichos registros sin abrir el cerebro, tal vez usando electrodos sensibles colocados en el cuero cabelludo”.
Continúe leyendo aquí