Especializaciones cognitivas: El caso del procesamiento de consonantes y vocales

Juan Manuel Toro
Dept. de Tecnologia, Universitat Pompeu Fabra, Barcelona, España

(cc) AirairLas consonantes y la vocales parecen tener funciones diferentes. Mientras las consonantes están más directamente implicadas en el procesamiento léxico, las vocales tienden a marcar rasgos sintácticos. Estudios recientes con lenguajes artificiales confirman esta hipótesis. Los resultados muestran que las palabras se reconocen más fácilmente sobre las consonantes, mientras que se extraen y generalizan reglas más fácilmente sobre las vocales.

[Versión en pdf]

El habla contiene una enorme cantidad de información organizada en diferentes niveles. A través de ella se da información no sólo de los sonidos que se usan en un idioma determinado (su fonología), sino que a su vez se expresan las reglas según las cuales éstos se combinan para formar palabras (morfología), el significado de estas palabras (léxico) y cómo éstas se combinan para formar frases con sentido (sintaxis). Pero, ¿cuáles son los mecanismos que nos permiten extraer toda esa información de forma aparentemente sencilla? ¿Cómo sabemos cuáles son las fuentes de información relevantes para cada nivel? Una posibilidad es que mecanismos de aprendizaje generales rastreen toda la información lingüística por igual y saquen de ella las regularidades necesarias (ya sean léxicas, morfológicas, sintácticas, etc.). Otra posibilidad es que haya una especialización cognitiva en la que diferentes mecanismos se centren en diversas fuentes de información.

A partir de numerosas observaciones se ha propuesto recientemente que existe una “división del trabajo” a nivel del procesamiento lingüístico. Más específicamente, se ha propuesto que hay diferencias funcionales entre vocales y consonantes. Según esta idea, las consonantes servirían como principal fuente de información léxica, mientras que las vocales, a través de la prosodia, marcarían principalmente estructuras gramaticales (Nespor, Peña y Mehler, 2003). Diversos estudios han dado soporte empírico a esta propuesta. Por ejemplo, estudios con lenguajes artificiales apuntan a diferencias funcionales entre consonantes y vocales. Bonatti, Peña, Nespor y Mehler (2005) reportaron una serie de experimentos en los que se concluía que se podían realizar cómputos relacionados con el léxico más fácilmente sobre las consonantes que sobre las vocales. En estos experimentos se creaba un lenguaje artificial a partir de palabras trisilábicas con una estructura CVCVCV (C = consonante, V = vocal). En una condición, cada palabra estaba definida por un “marco de consonantes”, una secuencia de consonantes fijas como “t_p_n”, mientras que las vocales variaban de forma aleatoria (formando palabras como “tapena”, “tiponu”, “tepano”). En otra condición, cada palabra estaba definida por un “marco de vocales” en la que eran las vocales las que seguían una secuencia fija (p.ej., “_a_i_o”) mientras las consonantes eran aleatorias (p.ej., “panito”, “nalipo”, “talino”). Bonatti y colaboradores encontraron que los participantes aprendían correctamente las palabras definidas sobre marcos de consonantes, pero eran incapaces de aprender las palabras definidas sobre marcos de vocales. Esto es, los resultados sugerían que las consonantes, y no las vocales, eran el objetivo preferente de ciertos cómputos estadísticos que se utilizan en la segmentación y adquisición de palabras.

En un estudio posterior se puso a prueba la hipótesis complementaria de que las vocales se usan preferentemente en el aprendizaje de reglas relacionadas con la gramática (Toro, Nespor, Mehler y Bonatti, 2008). Para este estudio se utilizaron lenguajes artificiales muy parecidos a los anteriores. Sin embargo, en lugar de variar de forma aleatoria, las consonantes o las vocales cambiaban siguiendo una regla de tipo XYX (esto es, que la primera y la tercera vocal en una palabra eran la misma, mientras que la segunda era diferente). Así, en las palabras definidas sobre un marco de consonantes, las vocales implementaban la regla XYX (p.ej., “tapena”, “tipeni”, “topuno”). Por el contrario, en las palabras definidas sobre un marco de vocales, eran las consonantes las que implementaban la regla (p.ej., “tapito”, “nalino”, “pabipo”). Los resultados mostraron que los participantes generalizaban la regla a nuevas palabras cuando ésta se implementaba sobre las vocales, pero no cuando se implementaba sobre las consonantes. Las vocales eran, pues, el objetivo preferente de las generalizaciones. De manera importante, este resultado no dependía de diferencias acústicas entre vocales y consonantes. El mismo patrón de resultados se encontró cuando se controló por posibles diferencias físicas entre ellas (Toro, Shukla, Nespor y Mehler, 2008). Así, el uso de lenguajes artificiales ha mostrado una doble especialización. No sólo las consonantes están más directamente implicadas en procesos léxicos, sino que, a su vez, las vocales están más implicadas en el aprendizaje de reglas (véase la Figura 1).

Figura 1

Figura 1.- Porcentaje de respuestas correctas sobre consonantes (Cs) y vocales (Vs) en una tarea de reconocimiento (datos tomados de Bonatti y col., 2005) y de generalización (datos tomados de Toro y col., 2008). Los resultados muestran que la segmentación e identificación de palabras era más efectiva cuando se hacía sobre consonantes, mientras que el aprendizaje de una regla abstracta era más fácil cuando se hacía sobre vocales.

Resultados que apuntan en la misma dirección se han observado utilizando metodologías diferentes, en tareas de presentación visual de estímulos. Por ejemplo, New, Araujo y Nazzi (2008) demostraron que las consonantes restringen el procesamiento léxico de forma mas notable que las vocales (véase también Carreiras, Gillon-Dowens, Vergara y Perea, 2009, sobre cómo esta diferencia puede a su vez ser detectada a nivel electrofisiológico).

En general, estos estudios dan soporte a la idea de mecanismos especializados en el procesamiento de diversos tipos de información lingüística. Un mecanismo general que meramente rastrease información lingüística debería tratar todos los elementos (vocales y consonantes) por igual. Por el contrario, los resultados muestran que existen fuentes de información “preferencial” para la extracción de regularidades distribucionales (consonantes) y el aprendizaje de reglas (vocales). Sin embargo, éste es un campo de investigación relativamente nuevo en el que todavía existen muchas preguntas sin resolver. Quizás la más importante se refiere a cuál es el origen de estas diferencias funcionales. Una posibilidad es que aparezcan como resultado de una exposición prolongada al lenguaje. Otra posibilidad es que el sistema encargado del procesamiento lingüístico tienda a procesar las vocales y las consonantes de forma diferente sin necesidad de que sean los estímulos lingüísticos los que determinen sus funciones. Así, lo que moldearía la estructura fonológica del lenguaje es, en parte, el hecho que sus componentes (como consonantes y vocales) tengan funciones diferentes.

Referencias

Bonatti, L., Peña, M., Nespor, M., y Mehler, J. (2005). Linguistic constraints on statistical computations: The role of consonants and vowels in continuous speech processing. Psychological Science, 16, 451-459.

Carreiras, M., Gillon-Dowens, M., Vergara, M., y Perea, M. (2009). Are vowels and consonants processed differently? ERP evidence with a delayed letter paradigm. Journal of Cognitive Neuroscience, 21, 275-288.

Nespor, M., Peña, M., y Mehler, J. (2003). On the different roles of vowels and consonants in speech processing and language acquisition. Lingue e Linguaggio, ii, 201-227.

New, B., Araujo, V., y Nazzi, T. (2008). Differential processing of consonants and vowels in lexical access through reading. Psychological Science, 19, 1223-1227.

Toro, J. M., Nespor, M., Mehler, J., y Bonatti, L. (2008). Finding words and rules in a speech stream: Functional differences between vowels and consonants. Psychological Science, 19, 137-144.

Toro, J. M., Shukla, M., Nespor, M., y Endress, A. (2008). The quest for generalizations over consonants: Asymmetries between consonants and vowels are not the by-product of acoustic differences. Perception & Psychophysics, 70, 1515-1525.

Manuscrito recibido el 14 de mayo de 2010.
Aceptado el 24 de junio de 2010.

(Visitado 3.919 veces, 2 visitas hoy)

Los comentarios están cerrados.

Post Navigation