21 diciembre 2016

Así distingue tu cerebro entre conversaciones y ruido en una fiesta

Cena de navidad con los compañeros del trabajo: el ruido de los platos que recoge un camarero y los gritos de la mesa de al lado pidiendo las bebidas se suman en un estruendo ensordecedor. Y aun así somos capaces de entender lo que nos cuenta la persona sentada a nuestro lado. ¿Cómo lo hace nuestro cerebro?
Es lo que intentan responder dos estudios coordinados desde Estados Unidos y publicados hoy en la revista Nature Communications. En uno de ellos, los investigadores han descubierto que lo que hemos oído anteriormente hace que nuestro cerebro se vuelva más receptivo y seamos capaces de entender sonidos previamente ininteligibles. La segunda investigación demuestra que cuando el ruido nos impide oír una letra de una palabra, el cerebro la rellena con un sonido que cuadre de acuerdo a la información que tenemos. En global, apuntan a que nuestra experiencia puede influir en gran medida en cómo percibimos el habla.
Registrar la actividad del cerebro desde dentro
En ambos estudios, los científicos estudiaron la actividad del cerebro de personas con epilepsia a las que se les había implantado electrodos en la superficie del córtex. Esta operación se realiza en pacientes que no responden a la medicación, para localizar el foco de los ataques epilépticos antes de la cirugía. Los investigadores hicieron sus pruebas a un reducido número de estos pacientes que se presentaron voluntarios durante su ingreso en el hospital. Esta técnica permite obtener registros de la actividad cerebral mucho más precisos que otras técnicas menos invasivas.
Sintonización cerebral
En el estudio liderado por la Universidad de California en Berkeley, los pacientes escucharon una frase totalmente distorsionada, de la cual era imposible entender ninguna palabra. A continuación, volvieron a oír la misma frase, pero esta vez en la versión original. Cuando los investigadores reprodujeron de nuevo la versión incomprensible, el cerebro de los pacientes ya se había adaptado y fue capaz de interpretar los ruidos como palabras.
“Hemos estudiado cómo el cerebro se sintoniza para captar las propiedades del sonido”, declara por correo electrónico Christopher Holdgraf, investigador de la Universidad de California en Berkeley y primer autor de este artículo. “El estudio muestra que el cerebro es capaz de cambiar su sintonización y que eso le permite extraer cualidades similares al habla a partir del ruido incoherente”, relata.
El investigador pone un ejemplo: “Imagina que estás en un bar hablando con alguien, y hay mucho ruido ambiente. Y puede que esa persona haya bebido un poco demasiado y arrastre las palabras. La información que llega a tu cerebro está degradada”, cosa que complica la comprensión. “Para enfrentarse a este reto, tu cerebro utiliza su experiencia previa con el habla para hacer suposiciones sobre lo que tu amigo probablemente ha dicho, y se centra en elementos particulares de su habla (...) que sean indicativos de ciertas palabras, para ver si consigue sacar algo en claro de lo que dice”, ilustra Holdgraf.
La mayoría de lo que llega por nuestros oídos en realidad no es relevante para nosotros”
CHRISTOPHER HOLDGRAF
Universidad de California en Berkeley
Por otra parte, “una de las tareas más importantes del cerebro es tratar con las enormes cantidades de ruido que hay en el mundo que lo rodea”, señala el investigador. “La mayoría de lo que llega a través de nuestros oídos y ojos en realidad no es relevante para nosotros, así que el trabajo de nuestro cerebro es concentrarse en los fragmentos que realmente le importan y filtrar todo lo demás”.
Rellenando los huecos
Los voluntarios que participaron en la investigación de la Universidad de California en San Francisco, en cambio, oyeron sólo combinaciones de palabras sueltas. Los investigadores escogieron parejas de palabras en las que cambiando sólo un sonido cambiase su significado – por ejemplo, babies (bebés) y rabies (rabia) – y produjeron por ordenador una versión en la que un ruido enmascaraba la única letra que las distinguía.
Áreas del córtex cerebral que se activaron en uno de los voluntarios al oír una palabra durante el estudio en el que participó Leonard
Áreas del córtex cerebral que se activaron en uno de los voluntarios al oír una palabra durante el estudio en el que participó Leonard (Leonard et al/Nature Communications)
El córtex auditivo es la zona del cerebro donde se termina de procesar el sonido. Está situada en el lateral de ambos hemisferios, y reacciona de forma distinta según las letras que oímos. Cuando los pacientes oyeron la versión distorsionada de cada una de las palabras, manifestaron haber oído una de las dos versiones, y de hecho su córtex auditivo se activó como si realmente hubiera sido así.
Ésta puede ser una de las herramientas que nuestro cerebro utiliza para manejarse con entornos ruidosos, donde a menudo tienen lugar las conversaciones, explica también por correo electrónico Matthew Leonard, investigador de la Universidad de California en San Francisco y primer autor del segundo trabajo. “El cerebro humano es mucho mejor que cualquier algoritmo computacional a la hora de entender el habla en ambientes ruidosos: intenta usar a Siri en un bar abarrotado de gente”, reta Leonard.
El cerebro humano es mucho mejor que cualquier algoritmo computacional a la hora de entender el habla en ambientes ruidosos”
MATTHEW LEONARD
Universidad de California en San Francisco
El investigador se manifiesta sorprendido por otro de sus hallazgos: antes incluso de que se llegara a reproducir la parte de la palabra donde estaba el sonido conflictivo, en cuestión de milisegundos, el córtex cerebral ya se decantaba por una de las opciones, como si fuera capaz de predecir la señal que le iba a llegar. Además, si los pacientes habían oído antes una de las dos versiones de las palabras, tendían a volver a oír esa variante cuando sonaba la versión distorsionada. “Aún estamos empezando a comprender cómo realmente estas predicciones causan la percepción de palabras específicas”, expone Leonard. De momento, los investigadores han detectado señales procedentes del área del córtex implicada en la comprensión del lenguaje que parecen estar modulando la actividad del córtex auditivo.
¿Hasta qué punto depende lo que percibimos de la realidad?
Ambos estudios apuntan a que la respuesta de nuestro cerebro ante el sonido no sólo depende de las señales que vienen de nuestros oídos; también de nuestra experiencia y de nuestras predicciones. Es lo que concluye Carles Escera, catedrático de neurociencia cognitiva de la Universidad de Barcelona, que no ha participado en ninguno de los estudios. “El cerebro va modificando su respuesta sobre la marcha, en función de la experiencia inmediata”, explica. Así pues, “lo que percibimos del mundo es la combinación entre nuestras expectativas y si ésas se confirman o no según la información que nos va llegando”, afirma Escera.

No hay comentarios.: