Archivo del autor: José-Luis Mendívil

¡Es la estructura, insensatos! (segunda parte: jerarquía)

Terminaba la primera parte de este post afirmando que Christiansen y Chater (2015) (C&C) aún cometían un error mayor que el de Everett y otros, en el sentido de que no solo también confunden la recursividad (como propiedad formal del sistema computacional) con la subordinación isomórfica (aka “estructuras recursivas”), sino que, además, haciendo casi venial la confusión, niegan que haya en realidad un sistema computacional detrás de la generación y procesamiento de las expresiones lingüísticas. En su lugar proponen que nuestra aparente capacidad para tratar (limitadamente) con la estructura recursiva en las lenguas sería una capacidad aprendida por la práctica y derivada de nuestra capacidad general para aprender secuencias lineales:

We argue that our limited ability to deal with recursive structure in natural language is an acquired skill, relying on non-linguistic abilities for sequence learning (Christiansen y Chater 2015: 2).

Lo que dan a entender, por tanto, es que si nuestra capacidad para procesar la estructura sintáctica se basa en nuestra capacidad para aprender secuencias lineales, entonces la estructura sintáctica es esencialmente lineal. De hecho, argumentan (usando datos genéticos y neurológicos) que los seres humanos han desarrollado una capacidad específica para aprender secuencias complejas, y proponen que esa capacidad es la que estaría detrás de nuestra capacidad lingüística, haciendo innecesario postular una FL, incluso una mínima:

Hence, both comparative and genetic evidence suggests that humans have evolved complex sequence learning abilities, which, in turn, appear to have been pressed into service to support the emergence of our linguistic skills (Christiansen y Chater 2015: 4)

Es curioso con qué facilidad se acepta en este caso una adaptación evolutiva específica para aprender secuencial lineales, pero ese es otro asunto. En todo caso, no parece que haya nada que objetar a que los seres humanos disponemos de capacidades más desarrolladas que otros primates para aprender secuencias complejas, ni sería prudente negar que tal capacidad es especialmente útil para aprender y usar el lenguaje. Esto es así porque las lenguas humanas tienen una obvia dimensión secuencial: hablamos produciendo cadenas lineales de palabras y aprendemos a hablar oyendo (y procesando) cadenas lineales de sonidos. Lo objetable (lo que incluso se puede demostrar que es falso) es asumir que la sintaxis de las lenguas humanas sea lineal. Esta es una creencia tradicional, pre-científica, análoga en la física a la creencia de que los átomos son indivisibles o a la creencia de que se puede predecir el comportamiento de todas las partículas.

Pero antes de volver sobre esto, es importante notar también que al confundir la estructura sintáctica con la secuencia lineal que la representa, C&S (y otros muchos autores) confunden también la gramática con el procesamiento. De hecho, no es que los confundan, es que proponen expresamente que la gramática es innecesaria, y que basta con el procesamiento para explicar la estructura de las lenguas.

Su argumento esencial (aparte de considerar que el lenguaje es un objeto cultural y no biológico) se basa en un despliegue meritorio de experimentación (de otros autores y mucha hecha por ellos mismos, básicamente de simulaciones con redes neurales y contrastes conductuales con humanos) que termina mostrando que las redes neurales artificiales son capaces de evolucionar para replicar básicamente las limitaciones que los humanos tienen para procesar “estructuras recursivas”. Dado que asumen que han mostrado que las redes neurales artificiales emulan las capacidades humanas, y dado que las redes neurales no desarrollan un sistema recursivo interno, entonces concluyen que no hay un sistema recursivo interno dentro de los humanos.

El problema para esta conclusión es que el procesamiento de la secuencia lineal de palabras es solo una parte del procesamiento lingüístico, precisamente porque la estructura sintáctica no es lineal, sino jerárquica.

Consideremos una oración típica de lo que sería una “estructura recursiva” en la que tanto los humanos con las redes neurales entrenadas muestran un mismo patrón de ineficacia, tales como las llamadas oraciones de subordinación central (un tipo de oraciones de “vía muerta”):

1. El cocinero al que el camarero al que el taxista ofendió apreciaba admiraba a los músicos

Cualquier hablante nativo del español consideraría en una primera lectura la oración de 1 ininteligible y la juzgaría como agramatical en un experimento de valoración. Sin embargo, es una oración perfectamente gramatical (léase despacio unas pocas veces, pónganse una comas mentales, y su sentido aflorará como un resplandor en la noche).

Ya Chomsky y Miller, en los años 50, consideraron estos casos como nítidos ejemplos de la diferencia entre competencia y actuación. Aunque la gramática genera esa oración, la gente no la usa porque exige mucho esfuerzo de procesamiento. La existencia de oraciones gramaticales difíciles de procesar es, de hecho, una prueba directa de la existencia de un conocimiento lingüístico independiente del uso del lenguaje en tiempo real (y también de que la sintaxis interna no surgió para la comunicación, pero eso lo discutiremos luego).

C&C objetan que si hubiera una competencia recursiva innata, no debería haber dificultades de procesamiento y que alegar problemas de sobrecarga de memoria de trabajo (la explicación de Miller) es muy barroco, dado que hay personas que lo hacen mejor que otras y que en algunas lenguas se usan más que en otras. Es una actitud razonable si uno piensa que la sintaxis humana consiste en poner palabras en un orden lineal esencialmente plano y que la capacidad sintáctica humana es un refinamiento de la capacidad de aprendizaje de secuencias lineales.

Y, en efecto, los problemas de procesamiento que produce la oración de 1 tienen que ver con el orden lineal. Si lo alteramos moderando las inversiones de sujeto, obtenemos la versión de 2, mucho más amigable (pero con la misma estructura y, por tanto, el mismo significado):

2. El cocinero al que apreciaba el camarero al que ofendió el taxista admiraba a los músicos

Pero esto nos permite dos conclusiones relevantes. Primero, que el hecho de que signifiquen lo mismo teniendo diferente orden pone de manifiesto que el orden no determina el significado. Segundo, que, en efecto, el procesador tiene preferencia por las relaciones gramaticales adyacentes (digamos, “locales” linealmente). Pero nótese que ese es un hecho esperable si estamos procesando una estructura que se ha “aplanado”, esto es, que al externalizarse se ha convertido en una secuencia lineal de palabras. Si empleamos nuestra capacidad para reconocer secuencias como una parte de nuestro procesamiento lingüístico, es esperable que 1 cueste más de procesar que 2, precisamente porque en 1 muchas de las relaciones sintácticas relevantes se presentan “interrumpidas” por otros elementos, que no dejan “cerrar” la derivación y, plausiblemente, sobrecargan la memoria de trabajo. Por tanto, que el procesamiento sintáctico se resienta de hechos de orden lineal no permite concluir que la sintaxis sea lineal.

Además, los propios C&C reportan un hecho interesante en este contexto de distinción entre las propiedades formales de las expresiones generadas por el sistema computacional y el procesador lineal empleado en su uso. Tanto las redes neurales como los humanos (de lengua inglesa) tienden a considerar más aceptable el ejemplo de 3, que es agramatical, que el de 1, siendo que 3 es el resultado de quitar un verbo a 1, formando una no oración:

3. * El cocinero al que el camarero al que el taxista ofendió apreciaba a los músicos

Es comprensible que la ausencia del verbo principal en 3 alivie la sobrecarga de procesamiento, pero entonces lo que se pone de manifiesto es que lo que los experimentos están midiendo es la “procesabilidad lineal” y no la gramática (al fin y al cabo 1 tiene una estructura y sentido coherentes y 3 carece de ambos).

De manera también interesante, aducen C&C que los hablantes de lengua alemana no muestran esa preferencia por 3 sobre 1, dado que están acostumbrados a procesar oraciones con alteraciones sistemáticas de la adyacencia lineal (como por ejemplo dass Ingrid Peter Hans schwimmen lassen sah, literalmente ‘que Ingrid Peter Hans nadar dejar vio’, o sea, en román paladino, que Ingrid vio a Peter dejar nadar a Hans). Esta variabilidad interlingüística en la capacidad de procesamiento es empleada por C&C para reforzar su hipótesis de que la capacidad de procesar estructura recursiva depende de la práctica y la costumbre y que, por tanto, no sería innata y, en consecuencia, no habría FL.

arbol3Sin embargo, la conclusión no se sostiene. Lo que, si acaso, evidencian esos hechos es que la capacidad de procesamiento secuencial se puede entrenar, algo que en modo alguno está en contradicción con la existencia de un sistema computacional recursivo. El sistema computacional recursivo (la sintaxis) genera un número potencialmente infinito de estructuras gramaticales jerárquicas, como las de la figura que ilustra esta entrada. Dichas estructuras, como también resulta representado en la figura, se convierten en secuencias lineales en la externalización del lenguaje para la comunicación. Y una vez externalizadas, unas son más o menos difíciles de procesar por parte de nuestra capacidad de procesamiento lineal y, por supuesto, en función de nuestra experiencia previa y hábitos, tendremos mayor o menor facilidad para ello, como sucede con cualquier lector que ahora vuelva sobre el ejemplo de 1.

La pregunta importante, por tanto, es la siguiente: ¿puede realmente el procesamiento de secuencias lineales dar cuenta de la estructura sintáctica de las lenguas humanas?

Ya sabemos la respuesta de C&C, que les lleva a considerar que la complejidad estructural de la sintaxis de las lenguas humanas es una estipulación y no un hecho empírico contrastado:

From our usage-based perspective, the answer does not necessarily require the postulation of recursive mechanisms as long as the proposed mechanisms can deal with the level of complex recursive structure that humans can actually process. In other words, what needs to be accounted for is the empirical evidence regarding human processing of complex recursive structures, and not theoretical presuppositions about recursion as a stipulated property of our language system. (Christiansen y Chater, 2015: 7)

El error crucial de esa aproximación es, como adelantaba, la indistinción entre, de una parte, las expresiones lingüísticas que emitimos (típicamente en cadenas secuenciales de palabras -como las que el lector tiene delante-) y, de otra, la estructura sintáctica (inaudible e invisible) que determina por qué las expresiones significan lo que significan y no otra cosa.

Puede parecer trivial tener que señalar esto, pero a la vista está que no. La sutil y compleja “estructura subatómica” que subyace a las expresiones lingüísticas está simplemente pasando desapercibida para buena parte de la profesión, esto es, para buena parte de los lingüistas profesionales, lo que sin duda es un problema de la teoría lingüística actual y puede ser un serio obstáculo para su integración en el cuerpo central de la ciencia cognitiva.

Quizá respondiendo a esa misma percepción, casi a la vez que ha aparecido el artículo de C&C, también se acaba de publicar en diciembre pasado, en otra revista de relumbrón en ciencia cognitiva (Trends in Cognitive Science) un artículo de Everaert, Huybregts, Chomsky, Berwick y Bolhuis con el también sugerente título “Structures, Not Strings: Linguistics as Part of the Cognitive Sciences”. Los motivos por los que unos cuantos “popes” de la gramática generativa actual (incluyendo al “pope”) se han puesto a escribir un resumen rayano en lo trivial de la investigación en su campo están claros:

[T]aking language as a computational cognitive mechanism seriously, allow us to address issues left unexplained in the increasingly popular surface-oriented approaches to language (Everaert et al., 2015: 729)

Veamos un ejemplo más de lo que queda sin explicar, en este caso inspirado en uno que discuten Everaert et al.:

4. El vestido que me puse no convenció a nadie

En 4 podemos observar que el término de polaridad negativa nadie tiene que ir precedido por no. De lo contrario, la oración está mal formada:

5. *El vestido que me puse convenció a nadie

Podríamos afirmar que la condición para poder usar nadie en esa oración es que antes haya un no. Pero entonces el siguiente ejemplo del japonés sería un contraejemplo:

6. Taroo-wa nani-mo tabe-nakat-ta  (Taroo no comió nada)

7. *Taroo-wa nani-mo tabe-ta (*Taroo comió nada)

El ejemplo de 7, paralelo al de 5, muestra que si no hay un no (-nakat-) no se puede usar nadie (nani-mo, en este caso ‘nada’). Pero 6 es correcta y ahí es nadie/nada el que precede a no, por lo que no podemos generalizar la explicación. Tendríamos que asumir que en español no tiene que preceder a nadie pero que en japonés es al revés. Sin embargo, lo relevante es que el orden lineal es insuficiente para dar una explicación del contraste:

8. *El vestido que no me puse convenció a nadie

En 8 observamos que, aunque no precede a nadie, la oración es agramatical. Podríamos decir entonces que lo que pasa es que el no tiene que ir con el verbo del que es complemento nadie, pero entonces ya no estamos hablando de orden lineal, estamos hablando de jerarquía. La condición para usar nadie tiene que ver con la posición estructural (en un árbol como el de la ilustración) en la que está no, y no con la precedencia. La idea elemental es que no no puede estar incluido en un constituyente desde el que no sea hermano estructural del constituyente que incluye a nadie (lo que en la jerga llamamos “mando-c”). Así, el no de 8 está “atrapado” en la oración de relativo que no me puse y no tiene la relación estructural necesaria con nadie (y dejo al lector aplicado la explicación de por qué A nadie le convenció el vestido que me puse es correcta).

Pero lo relevante de todo esto es que la interpretación de las expresiones lingüísticas, aunque se materializan linealmente, es sensible a la estructura y no al orden lineal (las reglas son dependientes de la estructura, en la jerga antigua). La prueba palmaria está en que en japonés, una lengua que linealiza sus constituyentes de manera diferente al español, las condiciones son las mismas, precisamente porque dependen de la estructura jerárquica propia de la sintaxis humana y no de cómo esa estructura luego se “aplane” para ser emitida o procesada por el sistema motor que produce las cadenas de sonidos.

En mi opinión, uno de los logros fundamentales de la gramática generativa (y especialmente del programa minimalista) ha sido poner de manifiesto que la conexión entre el sistema computacional (la sintaxis) y el componente conceptual-intencional, responsable en última instancia de la comprensión, es diferente a la conexión del sistema computacional con el componente sensoriomotor responsable de la externalización en señales físicas de las expresiones lingüísticas. Más concretamente, Chomsky ha defendido (desde 2007 al menos) que posiblemente el sistema computacional humano evolucionó / está optimizado para el sistema conceptual-intencional. De este modo, el primer uso del lenguaje sería el de un sistema interno de pensamiento, esto es, un lenguaje interno de la mente capaz de combinar de nuevos modos elementos conceptuales para crear conceptos más complejos (y, por tanto, pensamientos, posiblemente libres del control del estímulo). La posterior conexión con el sistema sensoriomotor para la externalización sería, por tanto, secundaria o ancilar. Y sería precisamente en esa conexión, sensible al entorno en su desarrollo en cada persona, en la que emergerían las diferencias entre las lenguas. La relación entre los componentes esenciales de la FL es, por tanto, asimétrica. En palabras de Everaert et al:

The asymmetry is: the mapping to meaning is primary and is blind to order (language as a system for thought), the mapping to sound/sign is secondary and needs order (imposed by externalization of language). The empirical claim is, therefore, that linear order is available for the mapping to sound/sign, but not for the mapping to meaning. (Everaert et al. 2015: 741)

Parafraseando a Everaert et al. podría decirse que los cómputos mentales en la creación y comprensión de expresiones lingüísticas (y de pensamientos en general) son ciegos a la ordenación lineal de las palabras que son articuladas o percibidas por los sistemas de input y output del interfaz con el sistema sensoriomotor, esto es, dicho más simplemente, que el orden lineal es irrelevante para la semántica y la sintaxis. El orden lineal es un rasgo secundario, impuesto en la externalización del lenguaje cuando este se usa para la comunicación.

Así, concluyen los autores, en la relación entre el sistema computacional y el componente conceptual-intencional la estructura jerárquica es necesaria y suficiente, mientras que el orden lineal es irrelevante. Por su parte, en la relación con el componente sensoriomotor, la estructura jerárquica es necesaria pero no suficiente, mientras que el orden lineal sí es necesario, pues lo impone la externalización. A modo de lema para llevar a casa, los autores lo exponen así:

What reaches the mind is unordered, what reaches the ear is ordered. (Everaert et al. 2015: 740)

Puede que haya algunos aspectos de esta visión que sean erróneos o que necesiten más ajuste y experimentación, pero no es cuestionable que la reducción de la sintaxis a orden lineal es simple desconocimiento de una rama de la ciencia que llamamos teoría sintáctica.

Reconozco que cuando leí el artículo de Everaert et al. en una revista de tanto impacto aparente sentí un poco de bochorno, puesto que cualquier estudiante de lingüística de cualquier universidad medianamente decente está familiarizado con su contenido, pero, como dicen sus autores:

These somewhat elementary but important insights have been recognized since the very origins of generative grammar, but seem to have been forgotten, ignored, or even denied without serious argument in recent times (Everaert et al. 2015: 742).

Hay muchas formas de hacer lingüística y todas tienen importantes cosas que aportar. Uno puede o no estar interesado por la sintaxis, pero no es prudente hacer como si no existiera.

¡Es la estructura, insensatos! (primera parte: recursividad)

En un reciente artículo publicado en la influyente Frontiers in Psychology, Christiansen y Chater (2015) proponen, con el provocador (y elocuente) título de “The Language Faculty that Wasn’t”, terminar de liquidar por completo la venerable noción de Facultad del Lenguaje (FL) de la tradición chomskiana. Su objetivo expreso es argumentar precisamente que no hay una FL, esto es, que el lenguaje no tiene un origen biológico, sino que es un objeto puramente cultural:

“it is time to return to viewing language as a cultural, and not a biological, phenomenon” (Christiansen y Chater 2015: 14).

Es curioso, pero en un libro reciente escrito a medias con Juan Carlos Moreno titulamos un capítulo como “The Paradox of Languages without a Faculty of Language” para remarcar lo inadecuado y contradictorio de la tradición que representan Christiansen y Chater (y otros muchos como Deacon, Hurford, Kirby o Briscoe) y ahora, ellos mismos (por supuesto sin citar nuestra aportación), titulan sus conclusiones como “Language Without a Faculty of Language”).

La estrategia (ciertamente inteligente) que emplean los autores para terminar de liquidar la FL es precisamente la de “unirse” a la deriva minimalista chomskiana y centrarse en atacar el último reducto de la FL tal y como se postula en el actual programa minimalista: la recursividad del sistema computacional.

En efecto, como es bien sabido, el desarrollo minimalista de la gramática generativa en los últimos veinticinco años ha ido reduciendo el peso de lo postulado como biológicamente especificado para el desarrollo del lenguaje en sus modelos teóricos de la FL, planteando que quizá lo único que haya que postular como específicamente humano y específicamente lingüístico de nuestra capacidad para aprender, conocer y usar las lenguas naturales sea un sistema computacional recursivo que genera de manera ilimitada estructuras jerárquicas binarias y endocéntricas. Llamemos Sistema Computacional Humano (SCH) a tal componente, siguiendo un uso habitual. El SCH es lo que en la influyente propuesta de Hauser, Chomsky y Fitch (2002) se denominaba la facultad del lenguaje en sentido estricto y es lo que recientemente Chomsky (en la introducción al volumen que conmemora los 50 años de la publicación de Aspects) ha caracterizado como la propiedad básica del lenguaje humano, esto es, la que está detrás del famoso “uso infinito de medios finitos” de Humboldt (al que, por cierto, Christiansen y Chater también citan).

A diferencia de ineficaces intentos anteriores de argumentar contra el SCH aduciendo que algunas lenguas humanas no tendrían estructuras recursivas (como en el célebre caso de Daniel Everett y la lengua pirahã), Christiansen y Chater (C&C en lo sucesivo) plantean una alternativa más radical, pues proponen que en realidad ninguna lengua tiene un sistema computacional recursivo:

“[T]he recursive character of aspects of natural language need not be explained by the operation of a dedicated recursive processing mechanism at all, but, rather, as emerging from domain-general sequence learning abilities”.

Según los autores, pues, la complejidad estructural de la sintaxis de las lenguas humanas (esa que precisamente sería la consecuencia de la aplicación de un mecanismo recursivo de generación de estructura) en realidad no sería tal, sino que sería una complejidad aparente. Nótese que afirman que el “carácter recursivo” de las expresiones lingüísticas emergería de una capacidad general de aprender secuencias lineales, lo que equivale a decir que la estructura sintáctica que subyace a las expresiones lingüísticas sería lineal, esto es, secuencial. Lo que en realidad viene a ser lo mismo que ignorar la teoría sintáctica de los últimos sesenta años como si no existiera.

Pero para un lingüista implicado en el estudio de la sintaxis de las lenguas naturales la situación es similar a aquella en la que alguien publicara un artículo en una revista de física diciendo que eso de la mecánica cuántica es una complicación innecesaria, una invención de los físicos, y que con el modelo de Newton y, como mucho, la teoría de la relatividad, es más que suficiente para explicar la estructura de la realidad. Puede parecer que estoy exagerando (para empezar, tal artículo nunca se publicaría), pero no es así en lo relativo a sugerir que la complejidad del objeto de estudio es más una invención del investigador que un atributo real del mismo, pues es lo que hacen Christiansen y Chater:

“What needs to be explained is the observable human ability to process recursive structure, and not recursion as a hypothesized part of some grammar formalism” (Christiansen y Chater 2015: 3).

Mas nótese el potencial problema: si los humanos no estamos dotados de un sistema computacional recursivo, sino que (como dice expresamente su propuesta) solo podemos usar mecanismos generales de aprendizaje de secuencias complejas para procesar estructuras recursivas, entonces no queda claro de dónde procederían esas “estructuras recursivas” que (según alegan) somos tan torpes procesando. Pero veamos primero de qué estamos hablando cuando hablamos de recursividad y después volveremos a la propuesta concreta de estos autores y sus implicaciones.

C&C, como tantos otros antes (incluyendo muchos generativistas), confunden la recursividad como propiedad de un sistema computacional (que es de lo que ha hablado Chomsky desde 1955 hasta hoy) con las llamadas estructuras subordinadas recursivas, esto es, cuando una oración contiene una oración, o cuando un sintagma nominal contiene un sintagma nominal. Las segundas son consecuencias rutinarias de la primera, pero en modo alguno se trata de lo mismo.

Como ha mostrado con claridad David Lobina (a quien, por cierto, C&C citan sin síntomas visibles de haberlo leído con detalle), cuando Chomsky habla de recursividad no se refiere a la existencia de “estructuras recursivas” del tipo de El hijo de la vecina de mi tía, sino que se refiere al carácter generativo de las gramáticas de las lenguas humanas.

Dado que la capacidad de la memoria humana es claramente sobrepasada por la creatividad del lenguaje humano, en el sentido de que no podemos abarcar un listado completo de todas las oraciones gramaticales (ni de todas las oraciones agramaticales) de una lengua, Chomsky propuso en los años 50 del siglo pasado, como paso fundamental en la fundación de la lingüística como ciencia cognitiva, que había que atribuir a la mente/cerebro del hablante un sistema computacional (una gramática generativa) que produce recursivamente el conjunto de oraciones gramaticales, un conjunto, en principio, indefinido o potencialmente infinito.

El uso de recursivamente en el párrafo anterior merece explicación, pues es la fuente de los errores señalados. Esta noción de recursividad (como propiedad de un sistema computacional) entronca directamente con la lógica matemática de los años 30 y 40 del siglo XX (asociada a nombres pioneros en la teoría de la computabilidad como Gödel, Post, Church o Turing) y que tuvo una influencia directa y decisiva en el Chomsky de los años 50. En los manuales de lógica matemática en los que se formó Chomsky (véase Lobina 2014 para citas concretas), la noción matemática de recursividad era cuasi sinonímica con la de computablidad, de manera que ‘recursivo’ venía a significar ‘computable’. De hecho, en el uso original de Chomsky, una gramática generativa no es sino una definición recursiva de un conjunto específico (el de las oraciones generadas por la misma). Se habla de una definición recursiva en el sentido en el que Post había mostrado con sus sistemas de producción cómo de axiomas finitos se podían generar/computar conjuntos infinitos. Y eso es precisamente lo que interesaba a Chomsky para capturar la famosa propiedad de la infinitud discreta o, como decía el viejo Humboldt, el uso infinito de medios finitos.

Una función recursiva es, pues, una función autorreferencial, en el sentido de que se define especificando sus valores en términos de valores previamente definidos por la propia función o, en otras palabras, una función que “se llama a sí misma” en el proceso de derivación.

Consideremos como ejemplo, siguiendo a Lobina, la función factorial de un número n. En la notación de la antigua EGB que tuve el honor de padecer, el factorial de n es n!, esto es, n! = n x (n-1) x (n-2), etc. Si n = 1, entonces n! = 1 (este es el caso base); si n es mayor que 1, o sea, n > 1, entonces n! = n x (n-1)!, y ahí tenemos el paso recursivo en todo su esplendor. El factorial de n invoca el factorial de n-1. Así, por ejemplo para n = 5, tenemos 5! = 5 x (4!) y para 4! tenemos que 4! = 4 x (3!) y así sucesivamente (y recursivamente) hasta llegar al caso base.

De manera relevante, nótese que aquí está el germen de la confusión, tan lesiva, entre (i) la recursividad como propiedad formal de un sistema computacional (el uso de Chomsky) y (ii) la recursividad como una instancia particular en la que una categoría dada contiene a una categoría de la misma clase (lo que solemos llamar “estructura recursiva” en lingüística). En la notación de la gramática generativa original, por ejemplo, la regla SN -> N (P + SN) contiene el símbolo SN a ambos lados de la flecha, lo que erróneamente se identifica con la recursividad como propiedad formal del sistema de reglas. Es un error comprensible, pero un error grave. Lo que Chomsky (tanto antes como después de su famoso artículo con Hauser y Fitch de 2002) postula como central y característico del lenguaje humano es la recursividad en sentido computacional, no la existencia de oraciones dentro de oraciones o la existencia de sintagmas nominales dentro de sintagmas nominales. Lo predicho es que en todas las lenguas se pueden generar un número ilimitado de expresiones gramaticales, esto es, en las que hay una relación sistemática entre sonido y sentido, esto es, que son computables.

Así, cuando lingüistas como Everett o C&C (entre otros muchos) intentan demostrar que no existe un sistema computacional recursivo detrás de la estructura de las lenguas argumentando que no existen estructuras recursivas (en una lengua en concreto o en ninguna), en realidad no están disparando a la diana correcta, al margen ahora de si aciertan o no en el blanco (esto es, al margen de que haya o no haya lenguas sin subordinación isomórfica -por usar una expresión menos confusa-, una cuestión discutible pero irrelevante ahora).

La reglas de estructura de frase y transformacionales del modelo estándar han sido reemplazadas en el modelo minimalista por la operación de ensamble (merge). Y precisamente lo que preserva claramente ensamble es la recursividad en el sentido descrito. Así, ensamble es una operación (una función) que toma dos objetos sintácticos W y U y los une formando W (W, U) que a su vez vuelve a ser el input de ensamble y resulta otro objeto sintáctico (digamos Z), según el siguiente esquema, que pretende mostrar el paralelismo con la función factorial antes comentada (E está por la función de ensamble):

X = E (X, Y), donde Y = E (Y, Z), donde Z = E(Z, W), donde W = E(W, U), etc.

Lo que observamoarbol2s, toscamente, es que la función de ensamble se aplica iteradamente de derecha a izquierda para generar el objeto X y que el objeto X se define recursivamente por la aplicación de ensamble a los objetos sintácticos inferiores, a su vez formados por ensamble. La estructura creada por ese proceso sería la que tenemos representada en la figura.

Lo que habría que demostrar para terminar de liquidar la FL minimalista es entonces que la estructura sintáctica de las lenguas humanas no tiene la configuración jerárquica de constituyentes del esquema, sino que es puramente lineal o secuencial, esto es, más o menos así: X = Y, Z, W, U, etc.

Decía al principio que el ataque a la FL minimalista de C&C era más radical que el de Everett porque no se limitan a señalar un posible contraejemplo a la supuesta universalidad de la subordinación isomórfica (la famosa lengua pirahã), sino precisamente porque usando el mismo tipo de argumentación (la supuesta ausencia de subordinación isomórfica o de “estructuras recursivas”) acaban planteando que la sintaxis de las lenguas es secuencial, esto es, lineal. Y eso es todavía peor.

(Continuará)

Cancelación de la conferencia de la Dra. Prieto

Queridos seguidores de Zaragoza Lingüística:

Lamentamos informar tan precipitadamente de la cancelación de la conferencia de mañana martes día 24. Un desafortunado cúmulo de circunstancias hace que sea imposible mantener la fecha.

La conferencia tendrá lugar el próximo martes, día 1 de diciembre, en el mismo lugar (Aula Magna de la Facultad de Filosofía y Letras) y a la misma hora (19:30).

Os rogamos disculpéis las molestias.

¿Hay que jubilar la Gramática Universal?

noam-chomsky_6363Cuando hace unos meses la activa e influyente fundación de divulgación científica edge.org lanzó su pregunta anual para el año 2014, en esa ocasión “What scientific idea is ready for retirement?”, juro que pensé ‘menos mal que hablan de ideas y no de personas, porque seguro que alguien pondría que a Chomsky’. Hace poco descubrí que, en efecto, alguien (Benjamin Bergen) entró al trapo y propuso como una de esas ideas merecedoras de jubilación la Gramática Universal, un concepto chomskiano por excelencia.

La verdad es que no me sorprende, ya que últimamente la venerable Gramática Universal (GU en adelante) se ha convertido en una especie de punching ball para todos aquellos investigadores y comentaristas que se oponen la visión naturalista del lenguaje planteada por Chomsky en los años cincuenta del siglo pasado.

Porque, no nos engañemos, la noción de GU en la obra de Chomsky siempre se ha referido a lo mismo, esto es, a aquellos aspectos o propiedades de la facultad del lenguaje de las personas que no proceden del entorno, sino del propio organismo. Nótese que esta es una caracterización definicional, no empírica. Así, salvo que uno piense que las lenguas humanas son objetos puramente culturales (invenciones o creaciones humanas como la poesía épica o las tradiciones gastronómicas), entidades que los cerebros pueden de alguna manera captar del entorno y usar, la GU existe por definición.

La cuestión crucial era (y sigue siendo) si la estructura íntima del lenguaje humano procede de fuera, del entorno, o de dentro, del organismo. La apuesta de Chomsky fue claramente internista y lo que combatía era precisamente eso, la concepción tradicional imperante de que las lenguas son objetos culturales, códigos compartidos externos que los individuos dotados de un cerebro lo suficientemente complejo (típicamente los seres humanos) son capaces de asimilar por exposición repetida a los estímulos del entorno. Lo que Chomsky inauguró en la lingüística moderna (cierto que enlazando con una tradición racionalista anterior) es precisamente la perspectiva cognitiva (mentalista, se decía entonces) en el estudio del lenguaje y, en general, de la mente humana.

El concepto de GU (recuérdese, como etiqueta para denominar la aportación del organismo -esto es, de la evolución natural- a la construcción del lenguaje) es por tanto consustancial a una auténtica perspectiva cognitiva del lenguaje y, en ese sentido, “injubilable”.

Lo que sí es revisable es el contenido que se pueda atribuir a la GU. A medida que vamos descubriendo qué aspectos de la estructura del lenguaje humano se pueden atribuir a la interiorización de estímulos externos o a ciertos principios generales de eficiencia computacional (o a cualesquiera otros factores), el contenido de la GU se va modificando. En el caso ideal, cuando realmente podamos saltar del nivel cognitivo al nivel puramente biológico, esto es, molecular y celular (un salto probablemente comparable en dificultad al que hay entre la física ordinaria y la mecánica cuántica), la GU desaparecerá como concepto científico útil, al haber sido reducida a una ciencia más elemental.

Pero no es eso lo que ofrecen quienes últimamente aparecen en los medios negando la existencia de la GU, ni mucho menos. Lo que ofrecen típicamente es una definición a medida e inexacta de qué es (supuestamente según Chomsky) la GU y luego se dedican a mostrar evidencia contraria. Claro que es relativamente fácil criticar la noción de GU si uno la construye a medida. Así, para muchos autores (por ejemplo Bergen) la GU consistiría en que “core commonalities across languages exist because they are part of our genetic endowment”, pero ¿cómo podría un universal lingüístico (aunque fuera indiscutido) ser parte de nuestra dotación genética? Los genes no construyen sistemas de conocimiento, ni ideas, ni conceptos; lo que construyen son proteínas, células y tejidos, que, según cómo se organicen y funcionen, restringirán o condicionarán los posibles sistemas de conocimiento.

¿Cómo podría Chomsky afirmar que hay genes gramaticales o neuronas sintácticas si no se ha puesto una bata blanca en su vida?

El informado artículo de Dabrowska (What exactly is Universal Grammar, and has anyone seen it?) es otro ejemplo de lo mismo. Ya desde el inicio afirma que la GU es un concepto sospechoso porque “there is little agreement on what exactly is in it; and the empirical evidence for it is very weak”. Pero ¿cómo puede ser débil (o fuerte) la evidencia empírica de algo que nadie sabe exactamente qué contiene? La propia autora sugiere que lo que hay que revisar es la evidencia sobre “specifically linguistic innate knowledge”. Del mismo modo, Goldberg concluye en su tendencioso post que un estudio que comenta sobre la teoría del ligamiento demuestra que no existe la GU, esto es, una suerte de “innate grammatical knowledge”, como si los tipos de expresiones anafóricas que existen en las lenguas hubieran sido seleccionadas por la evolución natural como la postura erecta o el pulgar oponible.

Y aquí, por fin, hemos dado con el nudo del asunto. El enemigo número uno de los funcionalistas y cognitivistas que con tanto ahínco combaten a los generativistas y al concepto de GU es precisamente ese: el conocimiento innato específicamente lingüístico. Resalto el sintagma porque tiene su enjundia.

Nadie parece negar que haya un sesgo biológico en los seres humanos que hace posible el desarrollo del lenguaje (porque sería disparatado hacerlo) y nadie parece negar que los seres humanos desarrollen un cierto tipo de conocimiento específicamente lingüístico. Lo que repugna entonces es la posibilidad de que haya un sesgo biológico y específicamente lingüístico. Al parecer, en algún momento Chomsky debió de decir que el órgano del lenguaje sería una especie de porción autónoma del tejido cerebral cuyo desarrollo estaría además dictado por un conjunto de genes específicamente dedicados a eso. Yo nunca lo he leído en sus obras. Sí he leído que escribió, por ejemplo, que el lenguaje bien podría ser un órgano mental “as a sytem, that is; its elements might be recruited from, or used to, other functions” (Chomsky 2004: 124). Pero si Chomsky no ha defendido eso, entonces no tiene sentido que se pretenda revelar su error señalando que no existen tales genes ni tal porción de cerebro.

Es cierto que Chomsky y otros autores generativistas han afirmado o sugerido que la GU (el sesgo innato hacia el lenguaje) estaría codificada genéticamente, pero lo hacían asumiendo la creencia común en la biología de los años 60 y 70 de que lo innato es lo genético. La biología del desarrollo ha avanzado mucho desde entonces, y también la gramática generativa. De hecho, en el modelo minimalista la GU es el remanente de lo que no se puede explicar de la estructura del lenguaje como procedente del entorno (adquisición) o como consecuencia de principios más generales que los estrictamente biológicos.

Hoy sabemos que no hay genes específicos del lenguaje, pero tampoco hay genes específicos de la visión o de la memoria, lo que no significa que estos sistemas de conocimiento (órganos mentales) no estén condicionados por los genes.

Pero lo relevante ahora es que la idea de un “conocimiento específicamente lingüístico biológicamente determinado” no es la hipótesis central de la gramática generativa, ni es el contenido de la noción de GU. Y no lo es sencillamente porque no puede serlo.

Decir que hay algo, lo que sea, que es a la vez biológico y específicamente lingüístico es tan absurdo como decir que hay algo que es a la vez eléctrico y específicamente político o algo que es electromagnético y específicamente químico. De hecho, es una contradicción en los términos, puesto que si algo es “específicamente lingüístico” no pude ser a la vez biológico, o eléctrico o químico. La noción de “a biological adaptation with specific linguistic content” (por usar la definición de lo que sería según Tomasello la GU) es simplemente un hombre de paja, un constructo imposible y aberrante que erróneamente se atribuye a toda una rama de la ciencia del lenguaje para desprestigiarla.

La gramática generativa es una disciplina lingüística (cognitiva) y, como tal, no puede hacer afirmaciones sobre el genoma y sobre el tejido nervioso (para eso hay que ponerse la bata blanca). Cuando proponemos una teoría lingüística determinada construimos un modelo teórico del sistema de conocimiento que subyace a las lenguas que estudiamos. Necesariamente consideraremos los principios que formulemos (por ejemplo, digamos la binariedad endocéntrica de las proyecciones sintácticas) como principios lingüísticos, esto es, como específicamente lingüísticos. Si, por las razones que sea, acabamos concluyendo que dicho principio no procede del entorno, lo atribuiremos a la estructura del organismo (o, por elevación, a principios físicos aún más generales que la propia biología). En el momento en el que podamos explicar ese principio específicamente lingüístico en términos, por ejemplo, neurológicos, dejará de ser específicamente lingüístico, pero no dejará de condicionar la estructura de las lenguas ni le quitará la razón a quien decía que la estructura del organismo es, en parte al menos, responsable de la estructura de los sistemas de conocimiento que construye y emplea.

No es saludable ni fértil para la ciencia del lenguaje que nos enzarcemos en falsas polémicas y nos distraigamos de cultivar nuestra dimensión del estudio del lenguaje favorita, que las hay para todos los gustos.

¿Es hora de jubilar la GU? Pues sí y no. La expresión es muy antigua (se remonta al menos a los gramáticos racionalistas franceses del siglo XVII) y puede llamar a confusión, pero no deja de ser un término técnico con sentido no literal, como el átomo o la puesta de sol. Me da la sensación de que su rechazo es más ideológico que científico. El tiempo dirá.

Jackendoff is not crazy! (O sobre la fonología y la consciencia)

s200_ray.jackendoffEn un recomendable y sincero autorretrato intelectual, la lingüista Gillian Ramchand expone qué significa para ella ser una lingüista generativista. Entre las muchas cosas que opina que pueden creerse sin dejar de ser chomskiano, está el no tener por qué pensar que Jackendoff está loco. Estoy completamente de acuerdo. En contra de lo que parecen pensar otros generativistas ortodoxos, creo que Ray Jackendoff, además de ser un generativista “de tomo y lomo”, ha hecho (y está haciendo) un gran servicio a la causa de construir una auténtica ciencia cognitiva del lenguaje, que es de lo que el generativismo trata en realidad.

Por cierto, otro tanto se puede decir de Steven Pinker, por lo que no me tiembla el pulso al escribir que Jackendoff y Pinker son tan chomskianos como lo pueda ser Chomsky, pues el marco de la lingüística chomskiana sin duda trasciende al pionero genio de carne y hueso que le da nombre.

Pero no es de las miserias de la pequeña sociología de la gramática generativa de lo que quiero hablar al proclamar que Jackendoff no está loco, sino de su enigmática y atractiva hipótesis de la inconsciencia del significado (HIS, por abreviar). La excusa para ello es que recientemente llegó a mis manos el último libro de Jackendoff (A User’s Guide to Thought and Meaning, 2014) en el que recapitula de manera amena y (más) sencilla sus más de 30 años de publicaciones al respecto. De hecho, la HIS ya aparece en su imprescindible Consciousness and the Computational Mind de 1987, pero allí (o eso me pareció en su momento) estaba formulada de manera más oscura y menos convincente (o yo estaba inmaduro para entenderla).

Como su nombre indica, la HIS asume que el significado (y el pensamiento, que vienen a tener la misma naturaleza) son inconscientes, esto es, ajenos a nuestra mente consciente. Por sorprendente que esto pueda parecer, en mi opinión, lo más intrigante y original de la HIS es el papel que otorga a lo que Saussure llamaba el plano del significante, esto es, la forma fonológica de las palabras y oraciones.

En las propias palabras de Jackendoff, citadas de A User’s Guide:

“the meaning side of a sound-meaning pair is unconscious, except for producing the feeling that the attached piece of sound is meaningful” (p. 49).

Claro que que los significados estén ocultos no significa que no tengan relevantes efectos: gracias a ellos podemos identificar y categorizar objetos del mundo, podemos seguir instrucciones, realizar inferencias y emitir enunciados que otras personas parecen entender. Todas esas cosas, dice Jackendoff, dependen de “captar” significados. La paradoja es que captamos significados incluso aunque no tenemos consciencia de ellos.

La HIS tiene, pues, tres partes esenciales: (i) la ‘pronunciación’ percibida es consciente, (ii) la ‘pronunciación’ va acompañada de una sensación consciente de significatividad y (iii) va asociada a un significado inconsciente (el concepto o pensamiento que expresa).

Lo que tenemos en la cabeza son conceptos y pensamientos; cuando algunos de esos conceptos y pensamientos se pueden asociar a una forma fonológica, entonces esos conceptos o pensamientos son el significado de esa forma fonológica. Por tanto, puede haber perfectamente conceptos o pensamientos que no sean el significado de ninguna forma fonológica (aunque no podemos ser conscientes de ellos), y puede haber formas fonológicas que no tengan ningún significado (porque no se conectan a ningún concepto o pensamiento).

Lo que Jackendoff llama pensamiento (thought) es en realidad la suma de los conceptos y el sistema computacional o sintaxis que los estructura. Desde ese punto de vista, el pensamiento es lo mismo que el “lenguaje interno” del conocido modelo chomskiano (formado por el sistema conceptual-intencional más el sistema computacional), pero desconectado del sistema sensorio-motor.

Lo que habitualmente llamamos lenguaje (y que agrupamos en lenguas históricas como el español o el chino) implica necesariamente una conexión de ese “lenguaje interno” con los sistemas de externalización (los sonidos, por simplificar). La historia convencional (y bastante razonable) es que la “externalización” de ese lenguaje interno está al servicio de la comunicación. Pero Jackendoff va más allá y sugiere que la vinculación de significados a sonidos no solo mejora nuestra capacidad de comunicarnos, sino que también proporciona el medio para que la mente consciente pueda operar con las derivaciones internas que, en caso contrario, solo podrían ser inconscientes. En otras palabras, que la fonología está en la base de la consciencia y, por tanto, del llamado pensamiento racional. Puede que Jackendoff no esté loco, pero a muchos podría parecérselo. A mí me da que tiene razón e intentaré explicar por qué.

Como queda dicho, lo más sorprendente y atractivo de la hipótesis de Jackendoff es el papel que le otorga su modelo de la consciencia a la forma fonológica. Veámoslo de forma comprimida: el significado es la base de nuestro conocimiento ¡pero nuestro conocimiento es inconsciente! Solo somos conscientes de la forma fonológica de las palabras y oraciones, pero no de su significado.

Así, según Jackendoff, la antigua intuición de que pensar conscientemente es lo mismo que hablarse a uno mismo es correcta, ya que la única manera que los significados tienen de acceder a la consciencia es a través de un asidero, de una manilla (handle), típicamente, la pronunciación (esto es, la forma fonológica). Por supuesto, también podemos ser conscientes a través de imágenes visuales o de otras percepciones, pero la lógica es la misma: la estructura conceptual y espacial que subyace a todo el pensamiento (y que es la base de nuestra cognición, de nuestro conocimiento) es totalmente inconsciente e inaccesible, está oculta en el cerebro salvo por los fogonazos episódicos y transitorios que tenemos de ella cuando usamos esos asideros (formas fonológicas, imágenes visuales, sensaciones táctiles, etc.) para experimentar nuestro propio discurso interior.

Por supuesto, ello no significa que nuestros pensamientos sean exactamente las frases que oímos internamente. Recuérdese que la forma fonológica de nuestro discurso interior es solo el asidero a las estructuras cognitivas confinadas en nuestra mente inconsciente. Según Jackendoff (p. 84) cuando percibimos una forma fonológica significativa (porque alguien la pronuncia o porque resuena sola en nuestro cerebro) aún no podemos percibir directamente el significado (¡recuérdese que es inconsciente!); de lo que somos conscientes es de que tal forma fonológica es significativa, pero no del significado en sí.

O en otras palabras: cuando alguien nos dice algo y entendemos lo que significa en realidad no somos conscientes del significado, sino solo de que esos sonidos tienen significado. Esta es mi parte favorita: según Jackendoff, lo que llamamos un “pensamiento consciente” tiene en realidad tres componentes: la imagen verbal, la sensación de que es significativa y el propio significado. Pero solo los dos primeros son conscientes (o acceden a la consciencia). El tercero, el significado asociado a la pronunciación, permanece inconsciente, aunque es el que hace todo el trabajo pesado en el pensamiento interno, como por ejemplo establecer inferencias, cotejar supuestos y trazar relaciones de referencia, esto es, proporcionar una interpretación de lo que nos dicen y del mundo.

Pero que quede claro: según este modelo no todo el pensamiento humano es verbal ni, por supuesto, consciente. Casi todo el uso que hacemos en la vida del lenguaje interno, esto es, del pensamiento (incluso cuando creemos que estamos razonando) pertenece al pensamiento inconsciente, y este no necesita asideros ni, por tanto, formas fonológicas. Solo el pensamiento del que somos conscientes, esto es, el que somos capaces de experimentar, requiere de asideros fonológicos (o de otras modalidades perceptivas).

Es cierto que tendemos a pensar que la pronunciación interna que hacemos es el propio pensamiento, pero eso es una simplificación motivada precisamente por el sentimiento de significatividad, del que sí somos conscientes (frente a una cadena de sonidos aleatoria como esplofre, por ejemplo, que no produce ese sentimiento).

Otro error habitual que la HIS aclara es la confusión entre pensamiento y consciencia. Así, un ser sin lenguaje (entendido como lenguaje interno más fonología) podría pensar, y bastante bien. Lo que no podría es ser consciente de sus pensamientos. De hecho, como se decía, los seres humanos hacemos uso habitual y muy eficiente del pensamiento de manera inconsciente. La diferencia está en que nosotros, frente a los demás primates superiores, gracias precisamente al lenguaje, no solo podemos tener pensamientos más complejos (esto por obra y gracia del sistema computacional que llamamos sintaxis), sino que además podemos ser conscientes de que los tenemos (esto por obra y gracia de la conexión del sistema computacional y conceptual con la fonología, esto es, con el sistema sensoriomotor).

Lo mismo funciona para la visión. Cuando estamos pensando conscientemente “oímos” las palabras dentro de la mente (de hecho, es de esa percepción de lo que somos conscientes) y sabemos que no nos está hablando nadie porque no hay una conexión entre los estímulos auditivos procesados por el oído y la “voz” en nuestra cabeza. Cuando vemos algo, como la pantalla del ordenador, somos conscientes de la imagen visual y sabemos que está ahí delante porque existe una conexión entre la imagen visual dentro de nuestro cerebro y los estímulos recibidos en la retina. Cuando no existe esa conexión, es que estamos imaginando una pantalla (o que tenemos una alucinación, lo que se explicaría precisamente como un mal funcionamiento de la detección de la conexión entre la imagen visual en el cerebro y los estímulos visuales procedentes de la retina).

Hemos visto que según la HIS de Jackendoff la forma fonológica es el asidero que posibilita la consciencia. Nótese entonces que en realidad el lenguaje no sería un requisito para la consciencia, puesto que también las imágenes visuales y los estímulos táctiles y olfativos pueden funcionar como asideros de conceptos internos inconscientes. De hecho, no tenemos razones para pensar que seamos los únicos organismos con algún tipo de consciencia de sí mismos. Cosa distinta es de qué se puede ser consciente.

El sistema computacional humano (que también es inconsciente) sí que parece marcar una diferencia con respecto al de otras especies en lo que respecta a la complejidad del pensamiento (tanto inconsciente como consciente). Como han puesto de manifiesto desde finales de los años cincuenta del siglo XX Chomsky y sus seguidores, el sistema computacional, con su capacidad de producir recursivamente derivaciones ilimitadas y capaces de combinar entre sí todo tipo de elementos conceptuales, produce una estructura conceptual (ahora usando la terminología típica de Jackendoff) que nos singulariza cognitivamente del resto de organismos. Todo lo que sabemos lo sabemos porque lo ha construido el cerebro, y la herramienta que usa el nuestro es precisamente la sintaxis. Por decirlo simplificadamente: aunque no tuviéramos consciencia, también seríamos más listos, aunque no lo sabríamos.

Por tanto, esa compleja estructura conceptual producida por la sintaxis no implica ni presupone necesariamente la consciencia. De hecho, si Jackendoff está en lo cierto y el pensamiento (el significado) es realmente inconsciente, la consciencia no es una consecuencia del lenguaje interno ni de la sofisticación de nuestra estructura conceptual, sino que es consecuencia de la conexión que el lenguaje interno tiene con cadenas arbitrarias de fonemas que sí pueden acceder a la consciencia. No podemos representar con una imagen visual conceptos como la desesperación, los celos, la entropía o el pasado, pero sí podemos crearlos con el lenguaje interno y hacerlos presentes en nuestra experiencia consciente a través de sonidos asociados a ellos, o de grafías, como acabo de hacer.

Pero aún hay más. Los seres humanos no sólo somos conscientes de nosotros mismos sino que, gracias al lenguaje, también somos conscientes de nuestros pensamientos, esto es, de que los tenemos, aunque en sí mismos sean inconscientes. Y ahí, según Jackendoff, está la base del atributo más notorio y famoso de nuestra especie: el pensamiento racional, esto es, el pensamiento consciente.

Según Jackendoff la investigación en psicología cognitiva reciente distingue entre dos modos de razonamiento, el sistema 1 y el sistema 2. El sistema 1 es rápido, automático e inconsciente (sería lo que comúnmente llamamos pensamiento intuitivo o inconsciente), mientras que el sistema 2 es lento, costoso, lineal y consciente (que es lo que normalmente identificamos con el pensamiento racional). Buena parte de la tradición filosófica ha insistido en que el segundo es específicamente humano (Homo sapiens) y se ha relacionado precisamente con el lenguaje. El modelo de Jackendoff no niega esto, pero lo explica mucho más coherentemente. Lo que propone nuestro autor es que en realidad el sistema 2 no es distinto del sistema 1, sino que, como él dice, “it rides on top of System 1” (p. 214). El sistema 2 sería pensamiento que está vinculado a un correlato cognitivo de la consciencia, esto es, a la forma fonológica. Dado que la forma fonológica es lineal, dice Jackendoff, el pensamiento consciente es lineal; dado que la pronunciación es lenta (en comparación con la rapidez del pensamiento), el pensamiento consciente es lento. Y dado que el pensamiento es inconsciente, solo podemos tener un acceso consciente a él si tiene un asidero consciente, la forma fonológica. Como únicamente los humanos tienen lenguaje, concluye Jackendoff, únicamente los humanos tienen pensamiento racional, por lo que, entonces, el sistema 2 equivale básicamente al sistema 1 más el lenguaje.

Pero en este punto hay que ser muy cuidadosos con la terminología. Habría más bien que decir que el sistema 2 equivale al sistema 1 más la externalización del lenguaje. Sugiere Jackendoff que si un chimpancé tuviera lenguaje no sería como un humano, puesto que el sistema 1 humano también es muy diferente del sistema 1 del chimpancé. Jackendoff está usando ‘lenguaje’ como equivalente a una dimensión fonológica, pero el lenguaje es mucho más que eso, puesto que es también el lenguaje (a través de la sintaxis) el que precisamente hace diferente nuestro sistema 1 del resto de los organismos capaces de pensamiento, como el chimpancé.

En todo caso, lo que le añade el lenguaje al sistema 1 humano para convertirlo en un sistema 2 (también humano) no es complejidad computacional, sino acceso a la consciencia. La posibilidad que brinda el lenguaje de referirnos a los pensamientos y manipularlos a través de sus correlatos conscientes (las formas fonológicas) es lo que nos hace capaces de obtener conclusiones, esto es, conocimiento que no podríamos obtener solo con el pensamiento inconsciente.

Lo maravilloso es que ese conocimiento sigue siendo inconsciente, aunque nos haga humanos.

Gödel, Hale & Keyser y la incompletitud de la sintaxis

godel-by-david-greyEn 1930 el gran matemático alemán David Hilbert presentó ante lo más granado de su disciplina lo que precisamente se acabó llamando el programa de Hilbert para las matemáticas. La clave esencial de dicho programa se basaba en dos principios: que toda la matemática se sigue de un sistema finito de axiomas (escogidos correctamente) y que tal sistema axiomático se puede probar consistente. En otras palabras, lo que planteaba Hilbert en su programa, también llamado formalista, era que cualquier verdad de una teoría matemática debía ser demostrable a partir de los axiomas mediante razonamientos cuya validez fuera verificable mecánicamente en una cantidad finita de pasos, esto es, algorítmicamente. El lema que resume esta actitud (y que Hilbert hizo constar en su epitafio) era “tenemos que saber y sabremos”.

El programa de Hilbert se proponía en contra de los llamados “intuicionistas” o “constructivistas”, quienes rechazaban la existencia, entre otras entidades matemáticas, del infinito de facto usado por Cantor, precisamente porque negaban la existencia de números que no se pudieran generar algorítmicamente (esto es, mecánicamente por medio de un número finito de pasos). La maniobra de Hilbert era clara: al considerar la propia demostración como algorítmica introducía de nuevo el infinito de Cantor salvando las reticencias de los intuicionistas, que, en efecto, se rindieron oficialmente en aquel congreso en Königsberg de 1930 (aunque la controversia de fondo, si las entidades matemáticas se crean o se descubren, esto es, si tienen existencia independiente, sigue sin resolver).

Mas, en ese mismo congreso, un joven matemático austrohúngaro, recién doctorado y aún desconocido, levantó la mano y afirmó que en realidad había demostrado un teorema que probaba que si las demostraciones habían de ser algorítmicas, entonces era imposible dar axiomas para la aritmética que permitieran demostrar todas las verdades de la teoría. Más concretamente, el primer teorema de incompletitud de Kurt Gödel, el propietario de la mano que se alzó, establece que para todo sistema axiomático recursivo auto-consistente (por ejemplo uno que pueda describir la aritmética de los números naturales) siempre existen proposiciones verdaderas que no pueden demostrarse a partir de los axiomas. El hecho de que Gödel pudiera demostrar (e incluso convencer a Hilbert) que siempre habrá una afirmación verdadera pero indemostrable a partir de cualesquiera axiomas es lo que realmente tiene interés para un lingüista teórico (aparte, por supuesto, de que se ha considerado una de las mayores proezas intelectuales del siglo pasado). Hemos visto que Hilbert convenció a los intuicionistas exigiendo que la demostración de los teoremas siempre fuera algorítmica, y eso es lo que hizo Gödel para convencer a Hilbert: una demostración algorítmica de su célebre teorema de incompletitud, esto es, una demostración que cumplía escrupulosamente el programa de Hilbert.

Pero veamos qué tiene que ver todo esto con la teoría lingüística. Para ello debo aclarar primero que no soy matemático y no he estudiado personalmente los trabajos de Hilbert y Gödel (ni creo que pudiera entenderlos), de manera que este breve relato se basa en obras de divulgación. Mis noticias sobre Gödel se debían esencialmente a los libros imprescindibles de Hofstadter y, sobre todo, de Penrose. Sin embargo, el que sigo ahora es el delicioso ensayo sobre los teoremas de Gödel del matemático y divulgador Gustavo Ernesto Piñeiro. Piñeiro explica que en lógica matemática se emplea la “dualidad semántico-sintáctica”, de manera que un concepto relativo a una secuencia de símbolos es “sintáctico” si únicamente se refiere a los símbolos sin que tenga relevancia su significado (por ejemplo si decimos que en ktlvd hay cinco letras o que la primera es una k), mientras que es “semántico” si depende del significado que la secuencia transmite (por ejemplo si nos preguntamos a qué se refiere o si es verdadera). En este contexto podría decirse que en lógica matemática lo “sintáctico” es lo algorítmico (computable) y lo “semántico” lo vago e impreciso (no computable). Como señala Piñeiro:

“La premisa fundamental del programa de Hilbert consistía en pedir que la validez de los aspectos semánticos de las matemáticas fuera controlada mediante métodos sintácticos. La sintaxis, clara e indubitable, debía poner coto a la semántica, propensa a paradojas” (p. 98).

A estas alturas mis amigos lingüistas (especialmente los generativistas) ya estarán salivando copiosamente. En efecto, es muy tentador relacionar este episodio crucial de la lógica matemática y de la teoría de la computabilidad con la tensión entre el peso de la semántica y la sintaxis en la lingüística moderna. De hecho (y no me consta que se haya hecho antes, aunque nunca se sabe), es muy tentador equiparar en cierto modo el programa de Hilbert para las matemáticas con lo que podríamos llamar el programa de Chomsky para la lingüística. La gramática generativa podría, en efecto, caracterizarse como un intento de reducir la semántica a la sintaxis, en el sentido preciso de que en el modelo chomskyano la sintaxis no está al servicio de transmitir el significado o de ordenar los símbolos, tal y como se suele entender habitualmente, sino que la sintaxis en realidad crea el significado. La sintaxis construye significados que simplemente no existirían sin ella y, lo que es fundamental, lo hace mecánicamente, algorítmicamente, de manera inambigua.

En mis clases de lingüística, para (intentar) persuadir a mis alumnos del interés de embarcarse en una aproximación formal a la sintaxis (a lo que naturalmente suelen ser reacios) suelo sugerirles (una estrategia que leí en algún sitio que no recuerdo) que consideren la diferencia entre pedirle a alguien que haga una determinada tarea y programar un ordenador para que la efectúe. En el primer caso nos basta con enunciar la tarea a realizar, pues asumimos que nuestro amigo pondrá de su parte los mecanismos y recursos necesarios para llevarla a cabo. Simplemente, la enunciamos “semánticamente” (y allá nuestro amigo con los detalles). Sin embargo, un ordenador no tiene sentido común ni iniciativa: hay que pensar detalladamente el proceso de desarrollo de la tarea, y nos obligamos a hacer explícitos e inambiguos todos y cada uno de los pasos a seguir (y al menor descuido o error el programa se cuelga). Construir una teoría sintáctica es lo más parecido que podemos hacer a convertir en procesos algorítmicos el aparentemente milagroso proceso de construir y transmitir significados empleando el lenguaje.

Pero no nos olvidemos de Gödel (y ahora serán mis amigos cognitivistas, que también los tengo, los que se frotarán las manos). Al fin y al cabo, el teorema de incompletitud precisamente demostraba que el “método sintáctico” es necesariamente incompleto: siempre habrá enunciados verdaderos no demostrables a partir de los axiomas. En lógica matemática parece que tenemos que elegir: o bien tenemos métodos de razonamiento seguros y confiables (“sintácticos”), pero no podemos probar todas las verdades, o bien podemos conocer todas las verdades (empleando métodos “semánticos”), pero sin la certeza de que nuestros razonamientos sean correctos. El problema es complejo y enlaza con la controversia sobre la naturaleza de la consciencia humana y el debate sobre la inteligencia artificial fuerte. Para muchos autores (entre ellos Penrose) el hecho de que podamos tener certeza de verdades matemáticas sin una demostración algorítmica posible es precisamente una prueba de la diferencia cualitativa entre la mente humana y un ordenador. Pero, como señala Piñeiro, entonces resulta que lo que Gödel mostró es que no podemos estar seguros de ser superiores cognitivamente a un ordenador, puesto que “jamás podremos tener la certeza de que nuestros razonamientos semánticos son correctos” (p. 161).

Si nos centramos en el lenguaje, podría parecer que Gödel vendría a dar la razón a quienes lo abordan como un fenómeno esencialmente semántico (no computable, analógico, podríamos decir), pero la propia historia de la gramática generativa es una muestra de que probablemente el futuro pueda depararnos sorpresas. Ante la conclusión de que la mente humana no es plenamente algorítmica, Piñeiro concluye con un interrogante de crucial importancia para nosotros:

“¿Existe un nivel intermedio entre los razonamientos puramente sintácticos y los razonamientos libremente semánticos que permita superar la incompletitud de los teoremas de Gödel asegurando a la vez la consistencia? ¿Existe realmente una diferencia tan tajante entre ‘sintáctico’ y ‘semántico’ o lo que llamamos conceptos semánticos no son más que conceptos sintácticos más sofisticados (en los que se trabaja con grupos de símbolos en lugar de con símbolos individuales)?” (p. 162)

No creo que haya ningún lingüista generativista que al leer esto, aunque hable en realidad de la aritmética, haya podido evitar pensar en la controversia entre lexicismo y anti-lexicismo de los últimos decenios. La tendencia inaugurada en buena medida por los trabajos de Hale y Keyser sobre la “sintaxis léxica” en los años 90 del siglo XX (por mucho que se inspiren en propuestas anteriores) se ha visto continuada por la llamada Morfología Distribuida de Halle y Marantz, la aproximación “exoesquelética” de Borer o la nanosintaxis (atribuida a Starke y desarrollada intensamente por Antonio Fábregas). Lo que todos estos modelos tienen en común es precisamente que son instancias avanzadas del programa chomskyano de ir reduciendo el ámbito no computable, vago y fluctuante de la semántica al ámbito computable, algorítmico y no ambiguo de la sintaxis.

La descomposición del significado léxico en términos de las unidades y principios de la sintaxis oracional es obviamente una instancia de esa posibilidad mencionada en la cita anterior de Piñeiro de intentar evitar la incompletitud por medio de la descomposición de los “símbolos semánticos” en estructuras computables (esto es, sintácticas). Consideremos, por ejemplo, el artículo seminal de Hale y Keyser de 1993 en el que demostraban (¡aunque no en el sentido matemático!) que la estructura argumental de los predicados verbales era en realidad una estructura sintáctica ordinaria. Lo relevante ahora es que gracias a esa hipótesis se puede predecir mucho más adecuadamente por qué existen ciertos verbos y no otros, y por qué significan lo que significan y no otra cosa (así, en español podemos decir que embotellamos el vino, en el sentido de que metimos el vino en botellas, pero no que vinamos las botellas).

De hecho, Hale y Keyser se hacen una relevante pregunta semántica (¿por qué hay tan pocos papeles semánticos?) y ofrecen una interesante respuesta sintáctica (porque los papeles semánticos son en realidad relaciones sintácticas). En efecto, incluso los estudios más detallados al respecto suelen convenir en que las lenguas emplean un número muy reducido de papeles semánticos (del tipo de agente, experimentador, tema, locación, etc.), un número que suele oscilar entre los dos de las teorías más restrictivas hasta la media docena de las más prolijas. La mayoría de las aproximaciones disponibles en la época solían proponer una lista jerárquicamente ordenada de papeles semánticos y no se hacían preguntas tan relevantes como las siguientes: ¿por qué hay tan pocos papeles semánticos? ¿por qué tienden a ser los mismos en todas las lenguas? ¿por qué están ordenados jerárquicamente (en el sentido de que no sucede que un verbo tenga un paciente como sujeto y un agente como objeto directo)? ¿por qué los mismos papeles semánticos tienden a aparecer en las mismas posiciones (los agentes como sujetos, los temas como objetos, etc.)? Dado que no parece que sea un problema que la mente humana pueda aprender una docena o dos de papeles semánticos, Hale y Keyser plantean que quizá las respuestas tengan que ver con la sintaxis, y no con la semántica. Así, proponen la hipótesis de que los papeles semánticos se siguen en realidad de configuraciones sintácticas. Lo relevante en el contexto de nuestra discusión es que el carácter restrictivo y predecible de los papeles semánticos (que son parte del “significado” de los predicados) sería en realidad consecuencia de la naturaleza no ambigua y limitada de las relaciones sintácticas. Así, del cóctel formado por, de un lado, la asimetría de las proyecciones binarias y endocéntricas (en las que, por ejemplo, la relación entre núcleo y complemento no es reversible) y, de otro, el hecho (misterioso en sí mismo) de que hay un número muy limitado de categorías gramaticales, Hale y Keyser derivan una respuesta específica y concreta a las preguntas formuladas, con la respuesta ya adelantada de que en realidad los papeles semánticos no son primitivos de la teoría, sino etiquetas descriptivas de relaciones sintácticas finitas y restringidas.

Por su parte, otro de los desarrollos recientes de la gramática generativa, la aproximación cartográfica, es de nuevo un sólido impulso en la misma dirección de intentar reducir la vaguedad semántica a configuraciones sintácticas restrictas y computables (esto es, algorítmicas).

Pero, por supuesto, todo esto no implica que Gödel esté derrotado, ni mucho menos. Es relativamente fácil imaginar que siempre habrá un momento en el que un tipo verdaderamente ‘atómico’ de significado haya de ser postulado como simplemente “conocido” por la mente, un punto pues en el que ‘un axioma verdadero’ no pueda ser ‘demostrado algorítmicamente’, tal y como requeriría el ‘programa de Hilbert-Chomsky’. Pero, al igual que los matemáticos no han dejado de abordar la demostración de todos los teoremas postulados, podría decirse que los lingüistas formalistas estamos obligados a desarrollar hasta el extremo el programa sintáctico iniciado en los años cincuenta del siglo XX y considerarlo un objetivo científicamente lícito e irrenunciable.

Es posible que haya una ‘semántica irreductible’, pero no deberíamos olvidar que, al fin y al cabo, el teorema que lo demuestra sí tenía una demostración ‘sintáctica’, así que nunca se sabe.

¿Dos lenguas, dos mentes? Horrorizando a Schrödinger

Uschrodinger600no de los físicos teóricos más relevantes del siglo XX, Erwin Schrödinger, consideraba que era “obvio” que únicamente existe una consciencia humana y que la sensación que todas las personas tenemos de tener una mente propia e individual es simplemente eso, una sensación.

Admito desde ya que comparar la capacidad de comprensión del universo de Schrödinger con la mía es como comparar un transatlántico con una barca de remos, pero aún así me atrevería a cuestionar la visión del padre de la ecuación de ondas de la mecánica cuántica (por la que recibió el premio Nobel en 1933) y aferrarme a la idea, quizá patosa, de que no existe una mente humana universal, sino que cada uno de nosotros tenemos nuestra propia mente y nuestra propia consciencia del yo. Pero eso sí, solo una.

No es difícil imaginar al genio vienés revolviéndose en su tumba si pudiera leer el artículo recién publicado en Psychological Science (2015) titulado “Dos lenguas, dos mentes”, pues, de estar en lo cierto, se implicaría una proliferación extra de las mentes por encima de las personas.

Los autores del artículo, liderados por Panos Athanasopoulos (Universidad de Lancaster), se hacen eco de la célebre afirmación de Carlomagno de que hablar otra lengua es como tener otra alma y la actualizan dando a entender que hablar dos lenguas es como tener dos mentes. La frase es buena como titular (aunque no tan sugerente como la formulación de Carlomagno), pero no deja de implicar una devaluación bastante drástica de lo que habitualmente entendemos por mente y (sospecho) una visión algo simplista de las relaciones entre lenguaje y cognición.

En todo caso, la lógica de los experimentos en que se basa tal conclusión es relativamente sencilla. Se parte del hecho de que los hablantes monolingües del alemán tienden a ser más proclives a identificar un vídeo en el que alguien camina hacia un coche (pero en el que no se muestra si llega hasta él) con un vídeo en el que alguien entra en una casa, que con un vídeo en el que alguien se dirige a un lejanísimo edificio sin alcanzarlo. Ello implicaría que, ante la duda, tienden a fijarse más en el fin del evento (entrar en la casa) que en el desarrollo del mismo (caminar hacia el edificio lejano) y por ello categorizan con más frecuencia el vídeo incompleto del coche como del primer tipo. La situación inversa se produce en los hablantes monolingües de inglés, que tienden a identificar el vídeo del coche con el del lejano edificio (centrándose, pues, en el desarrollo inacabado del evento). Según los autores ello sería así porque en inglés se codifica gramaticalmente el aspecto progresivo (por ejemplo la forma en –ing del verbo) y en alemán no. Según sus datos, solo un 37% de hablantes de inglés identificó el evento del coche con el de la casa, frente a un 62% de los alemanes. Es interesante, no lo niego, pero no añade nada a la ya extendida pretensión (infundada en mi opinión) de que una mente “inglesa” pueda ser distinta de una mente “alemana”.

Lo delicado viene con los sujetos bilingües. Si una mente alemana es distinta de una mente inglesa (asumámoslo de momento) ¿cómo será la mente de un hablante bilingüe alemán-inglés? ¿O es que tendrá dos mentes?

A estas alturas está claro que ya no sabemos muy bien a qué se refiere la palabra mente, pero sigamos. Según un primer experimento descrito en el artículo, los bilingües tendían a comportarse como los monolingües, aunque con diferencias menos acusadas. Así, cuando se hacía el experimento en un contexto alemán (porque se les dan las instrucciones en alemán y tienen que responder en alemán) tienden a preferir más frecuentemente el vídeo de la casa que el del edificio como semejante al del coche, mientras que cuando actúan en un contexto inglés los mismos sujetos tienden a preferir el vídeo del edificio (que marca el evento en progreso, no completado). Aunque los autores no lo señalan, es de suponer que ese comportamiento más moderado de los bilingües es precisamente efecto de la interferencia entre las lenguas, de manera que cuando hablan alemán son menos “alemanes” que los monolingües de alemán y cuando hablan inglés son menos “ingleses” que los monolingües de inglés.

El segundo experimento es más interesante, pero mucho menos concluyente estadísticamente hablando, y mucho más farragoso en el diseño. En él se pretende “entorpecer la categorización verbalmente mediada” (¿pero no era eso lo que se quería probar?) de los hablantes bilingües haciéndoles repetir en voz alta una secuencia de números mientras realizan la misma tarea del experimento anterior (ver los tres vídeos y decidir a cuál se parece más el del coche). No se nos debería escapar que repetir números en voz alta mientras se ve un vídeo no deja de ser una tarea lingüística, pero en fin, no soy experto en eso. Según los autores, esa tarea de interferencia inhibe en los sujetos la lengua en la que se supone que están pensando (ya que las tareas no son verbales sino de visionado de vídeos) y -lo que se supone es el mayor descubrimiento-hace que entonces elijan las opciones esperables según la otra lengua. Así, cuando están haciendo el experimento en “contexto alemán” (porque les dan las instrucciones en alemán y tienen que responder en esa lengua a qué vídeo se parece más el del coche) y a la vez se les “interfiere” el alemán haciéndoles repetir números -en alemán- mientras ven los vídeos (!), resulta que tienden a elegir menos el vídeo de la casa (el favorito de los “alemanes”) y más el del edificio (el favorito de los “ingleses”). A mitad de experimento se hace un cambio, de manera que tienen que decir los números en inglés (para perturbar el acceso a esa lengua, supuestamente) y entonces resulta que tienden a elegir más como los alemanes. La explicación que ofrecen los autores es que cuando la tarea de distracción verbal interrumpe el acceso a la lengua del contexto del experimento, entonces la otra lengua, por así decirlo, toma el mando.

No voy a entrar en la cuestión de cómo se puede (si se puede) interferir el acceso al lenguaje o, como dicen los autores, a la “verbally mediated categorization”, ni voy a insistir en la aparente contradicción de asumir que se pueda “distraer” la lengua operativa o activa y asumir que a la vez la otra lengua, supuestamente inactiva, venga a suplir a la “interrumpida”, puesto que entonces no queda claro que se haya interferido realmente la categorización verbalmente mediatizada, sea eso lo que sea. Nótese que en tal caso, la misma tarea de distracción aplicada a los monolingües implicaría que no se usa ninguna lengua para hacer el test (ya que no tienen otra que la supla), lo que precisamente demuestra que la influencia de la lengua en la categorización es modesta (salvo que asumamos que entonces no hay categorización de ningún tipo, cosa absurda, ya que en ese caso los sujetos monlingües no entran en bucle, sino que identifican los vídeos, aunque usando otra cosa que no sea el lenguaje, según la lógica de los autores).

Lo que en realidad el artículo pretende haber demostrado es, pues, que los hablantes bilingües inglés-alemán tienen una categorización flexible del mundo en función de qué lengua es dominante en una determinada tarea de identificación de eventos de movimiento. Lo que llama la atención es lo de la categorización flexible. Sus conclusiones son las siguientes:

These findings show that language effects on cognition are context-bound and transient, revealing unprecedented levels of malleability in human cognition.

Pero si los efectos sobre la cognición de las lenguas que se hablan son dependientes del contexto y transitorios, creo que entonces lo que realmente se pone de manifiesto en este estudio (y en otros análogos) es que los efectos de las lenguas concretas que uno habla en la cognición son realmente débiles o superficiales, lo que, por supuesto, no permitiría hablar de una maleabilidad sin precedentes en la cognición humana. De admitir esa afirmación deberíamos entonces reconocer que el término cognición se emplea en un sentido diferente cuando se usa en el texto citado o cuando lo usamos para referirnos, por ejemplo, a la cognición humana frente a, qué se yo, la cognición felina o aviar. Quizá un problema subyacente es que se identifica la cognición con la categorización, pero eso ya es un asunto excesivamente complicado para esta ocasión y, en todo caso, lejos de mis competencias.

En cualquier caso, a la sugerencia de que los bilingües tienen dos mentes cabe oponer lo que la investigación de los últimos años en bilingüismo ha puesto de manifiesto y que resumen con detalle y rigor Judith Kroll y otros en un reciente estado de la cuestión que afirma lo siguiente:

Contrary to the view that bilingualism complicates the language system, this new research demonstrates that all of the languages that are known and used become part of the same language system.

Los bilingües, en contra de lo que se creía en el pasado, no funcionan como dos monolingües, sino que sus lenguas, incluso cuando hay cierta asimetría en su dominio, se interfieren mutuamente y, de hecho, tienden a confluir en un solo sistema de conocimiento. Incluso se ha observado (véase el ensayo de Kroll et al. para referencias) que el tejido cerebral empleado en el almacenamiento y procesamiento de las dos lenguas es esencialmente el mismo.

El cerebro bilingüe es diferente del monolingüe, pero no precisamente porque se desdoble en dos sistemas de conocimiento, sino porque desarrolla un sistema de conocimiento más complejo cuyo manejo adecuado acrecienta ciertas capacidades, exactamente igual que levantar pesas a diario nos hace crecer los bíceps.

El descubrimiento más notorio de los últimos decenios en investigación del bilingüismo es precisamente que las dos (o más) lenguas siempre están activas y se interfieren mutuamente. Da lo mismo si la L1 es muy dominante sobre la L2, si son muy diferentes en su morfología, en su fonología o en su sintaxis, si lo son ortográficamente, si una es signada y la otra oral, o incluso si una de ellas apenas se usa. El conocimiento de una segunda lengua afecta continua e incesantemente al uso de la primera y, por supuesto, el de la primera, con mucha más robustez, al uso de la segunda. Los posibles beneficios cognitivos del bilingüismo derivan precisamente de la necesidad extra del bilingüe de inhibir a una de las lenguas para usar la otra, lo que revierte en una aparente mejora en la capacidad de resolución de conflictos cognitivos (tanto en el uso del lenguaje como en otros ámbitos) e incluso aumenta la protección contra ciertos tipos de degeneración cognitiva, incluido un retraso de los síntomas de la enfermedad de Alzheimer.

El hecho de que las dos lenguas siempre estén activas y se interfieran se explica precisamente porque forman parte de un único sistema de conocimiento (el lenguaje), lo que obviamente no apoya la visión de “dos lenguas, dos mentes”, sino que, al contrario, pone de manifiesto que si hay una parte del lenguaje (y sería muy extraño que no la hubiera) que vertebra nuestra mente y nuestra consciencia, esa parte coincide esencialmente con lo que las lenguas tienen en común.

Para que el lector termine de convencerse de lo frívolo (en el uso de la palabra) que puede llegar a ser afirmar que un bilingüe tiene dos mentes, merece la pena que consideremos un ejemplo de lo contrario: una persona con una sola lengua y dos mentes distintas.

En efecto, a diferencia de lo que sucede con los sujetos bilingües, sí existen personas sobre las que se ha discutido seriamente si tienen dos mentes (esto es, si son más de una persona), y no me refiero a los cinematográficos casos de trastornos de identidad disociativa, sino a los casos de personas con sección del cuerpo calloso que une los dos hemisferios del cerebro.

Quizá el más célebre es P.S., un chaval con cerebro escindido estudiado por Gazzaniga y colaboradores (LeDoux, Wilson y Gazzaniga 1977). Aunque es un tema muy controvertido, se ha llegado a sugerir que cada uno de los hemisferios de P.S. era autoconsciente y tenía su propia mente. Lo interesante (en lo que nos afecta ahora) es que después de la operación solo el hemisferio izquierdo podría hablar, pero ambos comprendían el habla y también el hemisferio derecho empezó poder comunicarse juntando letras del Scrabble para formar palabras usando la mano izquierda. Parece que P.S. tenía, a diferencia de los pacientes examinados hasta ese momento, parte sustancial del lenguaje en el hemisferio derecho (a pesar de que no era zurdo). Lo apasionante es que el hemisferio derecho mostró tener sentimientos, saber qué día era mañana, qué profesión le gustaría ejercer (distinta de lo que declaraba el hemisferio izquierdo) y, en general, todos los atributos de una mente humana. Como señalan en su artículo clásico LeDoux, Wilson y Gazzaniga:

Each hemisphere in P.S. has a sense of the self, and each possesses its own system for subjectively evaluating current events, planning for future events, setting response priorities, and generating personal responses.

Pero lo más relevante es que el hecho de que solo en el caso de P.S. se haya detectado esa independencia cognitiva del hemisferio derecho, mientras que los hemisferios derechos de otros pacientes no revelan esa capacidad de autoconciencia (con la posible excepción de otra paciente llamada Vicki), sugiere a los autores que

the presence of a rich linguistic system is a reliable correlate, and perhaps a necessary prerequisite, to some of the richer aspects of mental life.

Resulta pues que, a la postre, sí que parece tener sentido la antigua intuición de que el lenguaje está detrás de la consciencia y de la naturaleza de la mente humana. Pero, contrariamente a lo sugerido por Athanasopoulos y colaboradores, lo que forma la trama de nuestra mente humana no son los aspectos superficiales, externalizables, del lenguaje (esto es, los aspectos sujetos a cambio histórico y por tanto a variación), sino aquellos que son comunes a todas las lenguas incluyendo, claro está, las diversas lenguas en la (única) mente de un bilingüe. Estoy convencido de que a Schrödinger le habría seducido la idea.

El Test del Morfólogo: JOSÉ FRANCISCO VAL ÁLVARO

El Test del Morfólogo: JOSÉ FRANCISCO VAL ÁLVARO.

Creencias irracionales sobre el lenguaje

08-galileo-galilei-dibujoSiempre me ha inquietado que ciertas concepciones de sentido común sobre el lenguaje y las lenguas, a pesar de haber sido cuestionadas seriamente por la investigación reciente, sean tan persistentes en las ideas sobre el lenguaje de la mayoría de la población. Pero más inquietante aún es comprobar que tales prejuicios o creencias de sentido común tampoco son ajenos a muchos investigadores y lingüistas profesionales. En el primer caso se podría pensar simplemente que los lingüistas no hemos hecho un trabajo adecuado de explicación, pero en el segundo caso esa explicación no sirve, puesto que los propios investigadores parecen estar sujetos a las mismas creencias y actitudes, según su opinión porque eso es lo que también sustenta la ciencia del lenguaje. Parecería pues que hay (al menos) dos ciencias del lenguaje: la que refuerza las creencias de sentido común y la que no. Tanto en compañía (Moreno y Mendívil 2014) como en solitario (Mendívil 2014) he intentado explicar la aparente contradicción de que haya dos ciencias del lenguaje planteando que, en realidad, su objeto de estudio es distinto, de manera que ciertas tradiciones (como el funcionalismo) abordan las lenguas como constructos socio-culturales, mientras que otras (como el generativismo) las abordan como objetos naturales. No quiero volver ahora sobre eso ni repetirme más, sino añadir otro posible condimento a este extraño guiso en el que se cuece la actual ciencia del lenguaje.

Es un hecho conocido que nuestras intuiciones de sentido común revelan una visión del mundo que no coincide con la imagen del mismo que nos proporciona la ciencia, construida a través del pensamiento racional. O, en términos más claros, que las cosas no son como parecen. Así, aunque la razón nos dice que las probabilidades de que del bombo de la lotería salga la bolita con el número 00000 son las mismas que de que salga la bolita con el 34265 (exactamente 1/100.000 asumiendo que están en el bombo las bolas del 0 al 99999), casi todo el mundo cree que la segunda es más probable (de hecho, el 00000 no se suele vender). Si tenemos cinco bombos, cada uno con bolas numeradas del 0 al 9, la inmensa mayoría de la población dirá que es mucho menos probable que de cada uno salga el 0 (formando el número premiado 00000) que que obtengamos el número 34265, a pesar de que, de nuevo, los dos números tienen exactamente la misma probabilidad de aparecer (cada cifra 1/10, siendo cada extracción un suceso independiente). Estos sesgos irracionales no son exclusivos del antiintuitivo mundo de la estadística; incluso la física newtoniana clásica (por no mencionar la mecánica cuántica) los revela por doquier. Así, si preguntamos a cualquier persona no especialista qué bala llegará antes al suelo, si la que dejamos caer o la que disparamos con un fusil en un plano paralelo al suelo, la mayoría ignorará el hecho de que los dos vectores de fuerza (la horizontal del disparo y la vertical de la gravedad) son independientes y que, por tanto, tardarán lo mismo en caer, aunque una lo haga a trescientos metros de la otra.

En nuestra concepción de qué es el lenguaje y de cómo son las lenguas también intervienen inevitablemente estas soluciones provenientes del sentido común, probablemente útiles y adaptativas para la vida cotidiana pero poco fiables desde el punto de vista de la racionalidad científica. Así, puesto que los niños no saben hablar cuando nacen y al cabo del tiempo terminan hablando la lengua del entorno, nuestro sentido común nos dice que los niños aprenden las lenguas imitando la lengua de sus mayores. Falso. Puesto que -si solo hablo español- no entiendo a los que hablan en ruso o en japonés, las lenguas son profundamente diferentes. Falso. Puesto que las lenguas son profundamente diferentes, inducen a una concepción muy diferente del mundo y de la realidad en sus hablantes. Falso. Puesto que hablamos (¡y escribimos!) en una secuencia lineal, la estructura básica de la sintaxis de las lenguas es lineal o secuencial. Falso. Puesto que en algunas lenguas la morfología del verbo es muy compleja y en otras muy sencilla, entonces hay lenguas más evolucionadas (o más primitivas) que otras. Falso. Puesto que hay lenguas que son habladas por millones de personas y otras solo por centenares o decenas, hay lenguas mejor adaptadas que otras. Falso. Puesto que hay lenguas que se escriben y otras que no, hay lenguas más estables y fijas que otras. Falso. Puesto que no siempre se puede distinguir entre una palabra simple y un sintagma, la sintaxis y el léxico forman un continuum. Falso. Puesto que en algunas lenguas hay construcciones subordinadas y en otras no, la recursividad no es una propiedad común a todas las lenguas. Falso. Puesto que los sordos usan gestos visuales y no ruidos, las lenguas de signos no son arbitrarias. Falso.

En un fascinante experimento descrito en el excelente ensayo ¿Por qué tanta gente razonable duda de la ciencia? (que es el que ha motivado esta reflexión), se propuso a sujetos formados en ciencia básica que respondieran a un cuestionario acerca de hechos físicos comunes. Lo maravilloso es que al parecer se aprecian diferencias en las respuestas a preguntas como ¿Gira la tierra alrededor del sol? y ¿Gira la luna alrededor de la tierra? Aunque los sujetos en ambos casos respondían afirmativamente, lo hacían en menos tiempo cuando se les preguntaba si la luna gira alrededor de la tierra (que resulta bastante intuitivo) que cuando se les preguntaba si la tierra gira alrededor del sol (que es menos obvio, como pusieron de manifiesto los avatares del bueno de Galileo). Lo que sugiere Shtulman, el autor del estudio, es que cuando nos formamos en ciencia reprimimos nuestras creencias naturales, pero que de alguna forma permanecen ahí, interfiriendo cuando intentamos comprender el mundo.

Por supuesto, no quiero decir que las controversias sobre la naturaleza del lenguaje humano que en la actualidad aparecen en la bibliografía y en los foros lingüísticos (y que se remontan al propio surgimiento de la gramática generativa) no sean en ocasiones auténticas controversias científicas. Tampoco quiero dar a entender que los lingüistas de un bando basen su concepción en meras apreciaciones basadas en el (poco fiable) sentido común y que los del otro estén exentos de las mismas.

Pero sí me atrevo a sospechar que la incesante y pertinaz interferencia del sentido común puede tener cierto papel, además de otros muchos factores biográficos y personales, en la elección que los científicos del lenguaje tienen que terminar haciendo respecto de en qué “tribu” van a desarrollar su investigación y su reflexión sobre el lenguaje y las lenguas.

Nace Psylex, renace Sylex

psy-goldEn fechas recientes, el Gobierno de Aragón ha procedido al reconocimiento oficial del grupo Psylex como grupo consolidado de investigación de la Universidad de Zaragoza.
En realidad, Psylex es la evolución de Sylex (grupo reconocido como consolidado ya desde 2008 y dedicado a la investigación de la interfaz entre sintaxis y léxico). El cambio en el nombre (inapreciable fonéticamente) responde a la evolución de la ciencia del lenguaje y a la de los miembros del grupo. Es un hecho que tanto en el ámbito de la lingüística formal chomskiana como en el de la lingüística cognitiva se ha producido en los últimos decenios un viraje hacia modelos más ambiciosos en la tarea de reducción científica.
Así, el grueso de la lingüística formal ha evolucionado hacia la denominada biolingüística, mientras que la lingüística cognitiva se ha volcado en la experimentación psicolingüística y en la cuantificación como modelos preferentes en la falsación de hipótesis y en el desarrollo de teorías sobre el lenguaje y la cognición. Los miembros del grupo no han sido ajenos a esta evolución y han ido orientando su interés, praxis y formación hacia una mayor integración entre la lingüística teórica, las ciencias cognitivas y las ciencias del cerebro.
Retomando la célebre estratificación de David Marr de los diversos niveles de abordaje de la visión como órgano humano, consideramos que la vía preferente para acercar el nivel computacional abstracto (teoría lingüística) al nivel de implementación biológico (neurobiología) es privilegiar el desarrollo de los niveles intermedios de representación y algoritmo, precisamente el ámbito tradicional de la llamada psicolingüística. La p inicial del nuevo nombre del grupo evoca precisamente esta disciplina (Psycholinguistics). El grupo Psylex pretende reorientar y ampliar sus esfuerzos de investigación (especialmente en el desarrollo de proyectos de investigación competitivos) según dos directrices fundamentales y estrechamente conectadas: complementar la investigación lingüística propia del grupo con una proyección psicolingüística (lo que se refleja también en el elenco de colaboradores) y definir de manera más precisa (y por ello más ambiciosa) su ámbito de estudio.
Así, el ámbito fundamental de investigación del grupo es el del estudio lingüístico, psicolingüístico y neurolingüístico de la interfaz entre el léxico y la sintaxis, esto es, un intento de desarrollar una psicobiología del léxico (psy-lex).
Tal caracterización aún da cabida a muchas posibles líneas de investigación, un requisito fundamental para un grupo formado por lingüistas de formación y persuasión teórica diferente (un sello de identidad del grupo que lo hace además adecuado para el posible avance en la integración de tendencias teóricas diferentes, tales como la gramática generativa o la lingüística cognitiva). Pero dentro de esa amplitud deseable, la caracterización propuesta también restringe y especifica el objeto de estudio central del grupo.
Más concretamente, orienta el ámbito de investigación al de la formulación de modelos lingüísticos psicológica y neurológicamente plausibles de la relación entre el componente computacional o combinatorio de la facultad del lenguaje y el componente léxico. De hecho, el ámbito histórico del grupo, la investigación de la interfaz léxico-sintaxis, es en realidad una investigación empírica sobre la naturaleza cognitiva del léxico, entendido este como el componente específico de las lenguas humanas formado por entidades (unidades léxicas) que, a su vez, relacionan sistemáticamente (a) elementos conceptuales, (b) estructura composicional y (c) elementos del sistema sensorio-motor.
Existe mucha controversia e indefinición sobre cómo se relacionan entre sí estos tres tipos de elementos en las unidades léxicas; por ejemplo, sobre si la sintaxis opera con entidades léxicas ya formadas (modelos proyeccionistas), si la sintaxis forma las propias unidades léxicas (modelos constructivistas) o incluso sobre si la sintaxis está incluida ya en las propias unidades léxicas (gramáticas de construcciones). Asimismo, existe controversia análoga sobre cómo se establece la conexión entre las unidades léxicas con los elementos del sistema sensoriomotor (representaciones fonológicas en el caso habitual de las lenguas orales), de manera que la conexión entre léxico y fonología se puede producir en los morfemas, en el nivel de la palabra o en el propio nivel de la sintaxis. Y, por supuesto, existe controversia sobre cómo se conecta el sistema cognitivo humano con el resto de componentes; así, podemos preguntarnos si las representaciones conceptuales y de conocimiento enciclopédico se relacionan directamente con las representaciones fonológicas o si, por el contrario, interviene entre ellas un nivel de significado específicamente lingüístico o propiamente léxico.
La tarea de investigación del grupo Psylex se centra pues en la formulación de hipótesis concretas respecto de esas controversias y en la elaboración de experimentación psicolingüística para la falsación de las mismas. En resumen, se puede caracterizar globalmente la investigación del grupo Psylex como una aproximación científica a la naturaleza cognitiva del léxico como componente de las lenguas naturales.

El grupo Psylex está formado, como miembros efectivos (esto es, vinculados contractualmente a instituciones aragonesas de investigación), por ocho profesores del Departamento de Lingüística General e Hispánica de la Universidad de Zaragoza. De ellos, cuatro son del área de Lingüística General: José Francisco Val Álvaro, José Luis Mendívil Giró, María Carmen Horno Chéliz e Iraide Ibarretxe Antuñano; tres del área de Lengua Española: Francisco Hernández Paricio, Enrique Aletá Alcubierre y Carmen Vicente, y uno del área de Filología Catalana: María Teresa Moret Oliver. Los miembros colaboradores, a los que agradecemos profundamente su colaboración (en muchos casos de años) son los siguientes: Antonio Benítez Burraco (Universidad de Huelva), Rosario Caballero (Universidad de Castilla-La Mancha), Teresa Cadierno (Universidad del Sur de Dinamarca), Luna Filipovic (East Anglia), Silvia Gumiel Molina (Universidad de Alcalá), María Hernández (Centro de Lenguas Modernas de la Universidad de Zaragoza), Alberto Hijazo (East Anglia), José Manuel Igoa (Universidad Autónoma de Madrid), Isabel Pérez Jiménez (Universidad de Alcalá) y Javier Valenzuela (Universidad de Murcia).