Científicos de la Universidad de California han llevado a cabo un estudio, publicado en Science, que revela la forma en la que el cerebro reconoce los sonidos de las palabras para entender el habla.
El lenguaje está lleno de consonantes y vocales y el cerebro tiene que extraer esos pequeños trozos del fondo acústico, categorizándolos para dar sentido a lo que dicen los demás.
Se sabía que una región cerebral llamada circunvolución temporal superior (SGT, por sus siglas en inglés) es la encargada de realizar un mapa de sonidos con ciertas propiedades acústicas y sus representaciones en el cerebro. Pero los científicos se preguntaban cómo las neuronas individuales del STG eran capaces de extraer diferentes sonidos de las vibraciones acústicas y representarlos todos.
Para arrojar luz sobre este proceso, los investigadores grabaron directamente respuestas neuronales en el SGT de voluntarios mientras escuchaban el discurso continuo de 400 hablantes de inglés americano.
El objetivo era ver dónde se concentraban las respuestas neuronales. Ciertas neuronas respondían a las vocales, otras, a las consonantes y otro grupo era más sensible a los cambios en el tono. El análisis dividió el STG en dos grupos, y cada uno respondía a diferentes tipos de sonido de voz.
Los resultados han revelado la naturaleza específica del proceso de transformación acústico-fonética en el STG humano. “Su diseño complejo es necesario para que podamos entender las palabras que nos rodean”, concluyen los autores.