El lenguaje del cerebro

Antonio Ibáñez Molina y Ramón Guevara Erra
Basque Center on Cognition, Brain and Language, España

(cc) keoshiLa introducción de nuevas técnicas de análisis de ritmos EEG en el estudio de la comprensión del lenguaje permite explorar esta habilidad humana desde una perspectiva de integración de grupos de redes neuronales. Los ritmos de disparo neuronal que generan estos grupos pueden conectarse por sincronía formando unidades funcionales transitorias distribuidas en diversas áreas del cerebro. En esta revisión comentamos algunos de estos ritmos y su relación con el lenguaje.

[Versión en pdf]

Entender los mecanismos cerebrales de la comprensión del lenguaje es una de las cuestiones principales que aborda la Neurociencia. ¿Cómo puede el cerebro descodificar los sonidos que emite el hablante y construir una representación con sentido de lo que dice? En la actualidad, muchos autores están destacando la importancia de la sincronía de oscilación entre grupos neuronales en la comprensión del lenguaje.

¿Qué es la sincronización y por qué puede ser importante? En el siglo XVII, el científico holandés Christiaan Huygens descubrió un extraordinario fenómeno: si se colocan dos relojes de pared sobre el mismo muro, y a poca distancia, éstos terminan por mover sus manecillas en sincronía, aun cuando inicialmente marcaran las horas a diferente ritmo. Huygens comprendió que dicho fenómeno se debía a la imperceptible influencia de un reloj sobre el otro, lo cual en la jerga moderna se denomina “acoplamiento débil”. Se sabe que este fenómeno está presente tanto en los procesos físicos y químicos como en los biológicos. Dentro de los biológicos, la sincronía se ha observado en el cerebro a nivel de neuronas individuales y también, a una escala mayor, entre áreas distantes de la corteza. Es en este caso en el que se fundamenta la “hipótesis de ligamiento por sincronía”, de acuerdo con la cual la información se integra en el cerebro mediante la sincronización entre diversos circuitos neuronales (p.ej., Uhlhaas y cols., 2009; véase también Pérez Velázquez, 2009). Esto permite el intercambio simultáneo entre redes neuronales, usando distintas frecuencias de disparo. La integración funcional ocurre cuando diversas redes se acoplan selectivamente mediante sincronía en distintas frecuencias.

Existe evidencia a favor de que la sincronía neuronal sea también el mecanismo de integración de información predominante durante la comprensión del lenguaje. En particular, Weiss y Mueller (2003) proponen la existencia de “redes funcionales transitorias para el lenguaje”, en contraposición al tradicional concepto de “centros del lenguaje”. Hasta ahora, la mayoría de los estudios de comprensión del lenguaje han utilizado la técnica de potenciales evocados (ERPs). Esta técnica relaciona la actividad eléctrica del cerebro (EEG) con una tarea concreta usando un proceso de promediado del EEG durante un intervalo temporal posterior a la presentación del estímulo. Sin embargo, el promediado enmascara mucha información importante contenida en la actividad oscilatoria. Por ello, para la detección de sincronización se han usado métodos como el análisis de coherencia entre diferentes sensores de registro y de su correlación de fase, que consiste en detectar puntos de la corteza cerebral distantes entre sí cuya actividad EEG está sincronizada (véase la Figura 1).

Figura 1

Figura 1.- Representación de áreas bilaterales del cerebro que están en sincronía. Las etiquetas indican las distintas áreas en las que los electrodos registraron la actividad del cerebro. Los electrodos cuya actividad está sincronizada se representan unidos mediante un trazo. En esta imagen, por ejemplo, la actividad del electrodo FP2 no está en sincronía con ninguna otra, mientras que la del electrodo FP1 está en sincronía con la de C1. Según la hipótesis de ligamiento por sincronía, cuando varias áreas del cerebro están sincronizadas, forman parte de un circuito neuronal transitorio que está desarrollando una función cognitiva concreta.

Weiss y Rappelsberger (1998) aplicaron esta técnica a la comprensión de palabras sueltas. Diseñaron un experimento donde se pedía a estudiantes que estuvieran atentos a palabras presentadas en la modalidad auditiva o visual. Las palabras podían ser verbos, nombres concretos o nombres abstractos. Mientras realizaban esta sencilla tarea, se les registró el EEG en 19 puntos distribuidos uniformemente sobre la superficie de la cabeza y se calculó la sincronía entre ellos en diferentes bandas de frecuencia. Cuando compararon nombres concretos con abstractos, encontraron diferencias en coherencia entre electrodos en la banda beta (13-18 Hz). En general, se encontraron más electrodos en sincronía y una mayor conectividad entre el hemisferio derecho y el izquierdo para las palabras concretas que para las abstractas. Cuando compararon nombres y verbos, hallaron que la coherencia en la banda beta era mayor en los electrodos frontales para los nombres. Estos resultados indican que la dinámica del cerebro es distinta para palabras con distinto tipo de significado y distinta función gramatical.

En otro experimento, Weiss y Mueller (2003) investigaron la sincronización cerebral en la comprensión de oraciones simples. Para ello, presentaron oraciones auditivamente a un grupo de participantes usando la misma técnica que en el experimento citado anteriormente. Las oraciones eran de estructura simple (sujeto-verbo-predicado) y la única tarea de los participantes era intentar comprenderlas. Con el objetivo de captar los detalles semánticos del procesamiento, la mitad de las oraciones tenían sentido mientras que la otra mitad no (p.ej., “La oveja comía hierba” vs. “El perro comía hierba”). Adicionalmente, hicieron que los participantes escucharan un ruido similar al habla pero sin significado, y lo compararon con la presentación de frases reales. Los resultados mostraron que la diferencia en coherencia entre oraciones reales y ruido era mayor en la banda beta y sólo en la región frontal de la cabeza. La interpretación de los autores fue que la actividad oscilatoria de grupos de neuronas en la banda beta se relaciona con el procesamiento acústico primario de las oraciones. Cuando compararon las oraciones con sentido con las semánticamente incongruentes, la coherencia entre electrodos fue mayor en la banda gamma (más de 30 Hz) para las congruentes. Por tanto, este ritmo rápido o gamma está relacionado con la integración del significado de la frase.

Ambos estudios aportan nuevas claves para acercarnos a la dinámica cerebral de un fenómeno complejo como el lenguaje. Este método de investigación se está extendiendo en la actualidad hacia otras áreas cercanas a la psicolingüística, como por ejemplo el estudio del bilingüismo (Kim, Choi y Yoong, 2009). En nuestra opinión, las técnicas de análisis de oscilaciones son muy valiosas para conocer cómo se conforma el lenguaje en el cerebro, ya que aportan una huella fisiológica particular a cada aspecto de la comprensión del lenguaje, desde el nivel de palabra hasta niveles más complejos como la comprensión de oraciones.

Referencias

Kim, K. H., Choi, J. W., y Yoong, J. (2009). Difference in gamma phase synchronization during semantic processing of visually presented words from primary and secondary languages. Brain Research, 1291, 82-91.

Uhlhaas, P. J., Roux, F., Singer, W., Haenschel, C., Sireteanu. R., y Rodríguez, E. (2009). Neural synchrony during human development reflects late maturation and restructuring of functional networks in humans. Proceedings of the National Academy of Science, 16, 106, 9866-9871.

Weiss, S., y Rappelsberger, P. (1998). Left frontal EEG coherence reflects modality independent language processes. Brain Topography, 11, 33-42.

Weiss, S., y Mueller, H. M. (2003). The contribution of EEG coherence to the investigation of language. Brain and Language, 85, 325-343.

Manuscrito recibido el 14 de diciembre de 2010.
Aceptado el 15 de marzo de 2011.

(Visitado 18.705 veces, 1 visitas hoy)

Los comentarios están cerrados.

Post Navigation