Archivo del autor: José-Luis Mendívil

Gramática: ¿una ciencia de pacotilla?

Imaginen que un profesor de física de Educación Secundaria escribiera una carta a la armonizadora de la Prueba de Acceso a la Universidad (PAU) diciéndole que eso de la mecánica cuántica es una mandanga y que era todo mucho más claro cuando los átomos eran indivisibles. O que un profesor de matemáticas le dijera a la armonizadora de su PAU que la geometría no euclidiana es una aberración, o que un profesor de biología reprochara que se penalizara a quienes negaran la teoría de la evolución en el examen. O imaginen que un profesor de química, aduciendo que así lo aprendió él, se negara a enseñar a sus alumnos la tabla periódica, siendo que ya los griegos habían dicho que los elementos fundamentales son cuatro, y pretendiera que no se penalizara esa teoría en los criterios de corrección. No menos sorprendente (ni menos irritante) sería comprobar que tales profesores les sugirieran a las armonizadoras respectivas (normalmente Profesoras Titulares o Catedráticas de Universidad con años de estudio e investigación y decenas de publicaciones en revistas científicas) que leyeran a Demócrito, a Euclides, a Newton… o la Biblia.

Son ejemplos grotescos, pero, en realidad, algo así está pasando en Aragón con respecto a ciertas propuestas que la armonizadora de la PAU de “Lengua castellana” (mi compañera la Dra. Mamen Horno Chéliz) ha hecho a la comunidad de docentes de secundaria de cara a la evaluación de la prueba de análisis sintáctico de la PAU del próximo curso.

Bueno, admito que exagero, pero me temo que no tanto como parece.

¿Qué sofisticadas y controvertidas teorías modernas, arriesgadas e incomprensibles para la mente adolescente ha sugerido la armonizadora que deberían reflejar los alumnos en la PAU para no tener (una modesta) penalización en sus análisis sintácticos?

Fácil, solo dos cosas: que analicen los Sintagmas Preposicionales como Sintagmas Preposicionales y que no confundan el argumento locativo de un verbo con un complemento circunstancial de lugar. Vamos, que no confundan la función sintáctica de sobre la mesa en He puesto el libro sobre la mesa y en Me gusta bailar sobre la mesa.

Que en el primer caso sobre la mesa es un argumento del predicado poner está fuera de toda duda y no merece la pena revisar aquí los argumentos que lo demuestran. Y lo mismo para las pruebas de que sobre la mesa no es un argumento del verbo bailar en la segunda.

Lo que parece que ha sobrecogido (indignado en ocasiones) es cómo se analiza la secuencia sobre la mesa. El análisis sugerido como óptimo por la armonizadora es el que podríamos encontrar en cualquier revista científica con índice de impacto y evaluación por pares (o sea, donde se publica la ciencia) aparecida en los últimos cincuenta años: sobre la mesa es un constituyente sintáctico y está formado por una preposición (sobre) y un sintagma nominal (la mesa). Hasta ahí, me atrevo a aventurar, nadie estaría en desacuerdo. Y quien esté en desacuerdo tiene un serio problema de comprensión de qué es un constituyente sintáctico y de qué están hechas las oraciones. Bueno, es cierto que los gramáticos griegos tenían una concepción bastante precaria de cuál era la estructura de la oración (como de cuáles eran los elementos fundamentales). Para ellos las oraciones estaban hechas de palabras. Precisamente por eso, a lo que hoy llamamos clases de palabras ellos lo llamaban meré logou (partes orationis en latín), esto es, partes de la oración. Pero hoy en día eso sería como decir que el cuerpo humano está formado por células (obviamente cierto) ignorando que las células se agrupan antes en órganos. Ningún profesor de anatomía accedería a la cátedra ignorando ese nivel de complejidad estructural intermedio entre el organismo y la célula.

Asumamos pues que carece de sentido negar que sobre la mesa es un constituyente sintáctico y dejemos por imposible al que persista en negarlo. No es ese el motivo de la rebeldía de ese nutrido puñado de docentes airados, sino la propuesta adicional de que el núcleo del sintagma es la preposición, esto es, que sobre la mesa es un Sintagma Preposicional (SP) y no un Sintagma Nominal (SN) con algo delante.

La hipótesis de que el núcleo del SP es la preposición tiene, por supuesto, una motivación teórica (es subsidiaria de la hipótesis de que toda proyección sintáctica es endocéntrica), pero en absoluto se puede considerar contraintuitiva, contraproducente o imposible de explicar en bachillerato, como hemos tenido que leer estos días. Usando un criterio puramente semántico (el más accesible a los estudiantes) decimos que mesa azul es un SN porque denota una mesa y no un color, decimos que vender coches es un SV porque denota una acción y no un objeto con ruedas y decimos que orgulloso de su hija denota un estado y no a una niña. ¿Y qué denota sobre la mesa, una relación o un mueble?

Es difícil encontrar en la bibliografía seria propuestas que cuestionen que sobre la mesa es un constituyente sintáctico, pero, por supuesto, no es tan difícil encontrar propuestas muy respetables en las que se afirma que sobre la mesa es un sintagma exocéntrico, esto es, que no tiene núcleo. Lo malo es que hay que irse muy atrás en la breve historia de la teoría sintáctica: lo más moderno que tengo en casa que diga eso es el venerable Curso de lingüística moderna de Charles F. Hockett… ¡de 1958!

Si habláramos de física, de biología, de matemáticas o de química, una referencia de 1958 se consideraría equivalente al pleistoceno y, desde luego, no se podría usar para acusar a la armonizadora de atribularnos con moderneces efímeras. Es verdad que las ciencias humanas no funcionan igual que las llamadas ciencias naturales, pero, aún así, desde 1958 también ha llovido mucho en la teoría sintáctica.

Sospecho que la idea de que la preposición no es el núcleo sintáctico (ni puede serlo y es una “aberración” decir que lo sea, que también lo he leído) procede de varias fuentes, esencialmente tres: (i) que las preposiciones típicamente tienen menos contenido léxico que los nombres, los verbos y los adjetivos, (ii) que la preposición tiene como función unir cosas entre sí y (iii) que se emplea un criterio distribucional para determinar qué es el núcleo. Los argumentos (i) y (ii) están claramente relacionados y ambos son endebles. En Juan es listo la expresión es listo es un sintagma verbal, aunque ahí el verbo carece de significado. Por su parte, podemos seguir diciendo que la preposición une cosas entre sí y mantener que es el núcleo del SP. Una cosa no está reñida con la otra, al igual que el núcleo del SV es listo es es y su función es relacionar a Juan y a listo.

El núcleo del problema está precisamente en la noción de núcleo. En teoría sintáctica núcleo se entiende (oh sorpresa) como núcleo sintáctico. En un sintagma el núcleo es el elemento que rige complementos y recibe modificadores y es el elemento que determina la categoría sintáctica del conjunto completo. Sin embargo, el criterio que empleaba Hockett (asumiendo la tradición del estructuralismo anterior) para determinar el núcleo era el distribucional: un sintagma tiene como núcleo aquella palabra que podría funcionar ella sola como todo el conjunto (pero nótese que el criterio se basa también en la asunción de que el núcleo “transmite” su categoría al conjunto). Así, el nombre es el núcleo del SN porque un nombre (Juan) puede aparecer en las mismas posiciones que un SN (Juan/el vecino es listo), el adjetivo es el núcleo del SA porque un adjetivo puede aparecer en su lugar (Juan está orgulloso de su hija/cansado) o el verbo es el núcleo del SV porque un verbo puede sustituirlo (Juan come patatas/respira), etc. Pero la preposición no puede sustituir al SP: El libro está sobre la mesa/*sobre). Como la mesa tampoco puede (*El libro está la mesa), entonces se concluye que sobre la mesa es un sintagma sin núcleo (exocéntrico).

Sin embargo, la gramática, en contra de lo que creen algunos, no es como la filosofía, la crítica literaria o la teoría política: es una disciplina empírica (como la física o la química) en la que hay cosas que están bien y cosas que están mal. Hay análisis correctos y análisis incorrectos. El criterio distribucional es simplemente insuficiente para determinar el núcleo sintáctico. Por ejemplo, nos obligaría a decir que dilucidaste el enigma es exocéntrico (y no un SV) porque no se puede sustituir por dilucidaste (*Ayer dilucidaste) o que proclives al odio no es un SA porque no se puede sustituir por proclives (*Los vecinos son proclives). Parece claro que la razón de esas restricciones no tiene que ver con la nuclearidad del verbo o del adjetivo, sino con el hecho estrictamente léxico de que son transitivos y no permiten la omisión del argumento regido. Pues lo mismo sucede con las preposiciones: no pueden sustituir a todo el SP simplemente porque en español todas las preposiciones son transitivas (ocasionalmente alguna permite la elisión, pero es un fenómeno marginal en nuestra lengua: -¿Tienes tabaco? -No, me he quedado sin).

Y la razón por la que las preposiciones son transitivas no tiene que ver con si son o no núcleos, sino con su contenido léxico. Las preposiciones son en realidad muy similares a los verbos. Si hay algo inherente a un verbo es la capacidad de regir argumentos (que luego aparecen como complementos directos, sujetos, etc.). Si imaginamos un verbo con significado léxico simplificado y sin capacidad de tener un sujeto, entonces nos damos de bruces con una preposición. En el resto se parecen mucho. Así, los verbos normalmente rigen como complementos SSNN (Compró una casa), pero los hay que rigen SSPP (Hablaba de política) e, igualmente, las preposiciones normalmente rigen SSNN como complementos (Sin las flores, el famoso “término de la preposición” en la gramática tradicional), pero también las hay que rigen SSPP (Por entre las flores). Los verbos determinan también otras propiedades gramaticales de sus complementos, como el caso (recordemos el latín: video urbem) y las preposiciones determinan el caso de los suyos (decimos *para mí y no *para me o *para yo). Todos sabemos que hay verbos que rigen oraciones como complemento (Decidió que Luisa viniera) y también hay preposiciones que lo hacen (Para que Luisa viniera). De hecho, a veces los verbos determinan el modo del verbo de su complemento oracional (Deseo que vengas/*vienes) y lo mismo pueden hacer algunas preposiciones (Para que vengas/*vienes). [Ejemplos adaptados de los que usan Bosque y Guitérrez-Rexach en su enorme tratado de sintaxis del español de 2009].

Pero nada de eso tendría explicación asumiendo que la preposición es simplemente una especie de elemento de enlace o un nexo, o expresiones similares. Esas caracterizaciones son confusas, incompletas y, digámoslo sin ambages, erróneas, por mucho que aparezcan en los libros de texto. Si no aceptamos que la preposición es el núcleo de su propia proyección (el SP), entonces no solo no podemos explicar todas esas propiedades, sino que estamos hurtando a nuestros alumnos importantes generalizaciones estructurales sobre cómo funcionan realmente las lenguas.

Cabe ahora recordar que el objetivo de la teoría sintáctica no es analizar oraciones, sino revelar la estructura oculta y sistemática que subyace a las secuencias lineales de palabras que emitimos. O lo que es lo mismo, explicar por qué las expresiones lingüísticas complejas significan lo que significan y no otra cosa. Reducir la preposición al papel de elemento de enlace o nexo no solo no contribuye a esa noble tarea, sino que representa un paso atrás.

Ahora bien, cabría preguntarse entonces: ¿por qué los profesores (algunos profesores) de lengua española, a diferencia de sus colegas de física o de biología, se habrían de empeñar en no incorporar a sus programas las innovaciones científicas que se producen en su campo?

Obviamente, no es culpa de los profesores de secundaria de lengua castellana (de lengua española, vamos), es culpa de quienes los hemos formado. Hay un evidente problema con la enseñanza de la gramática en la educación primaria y secundaria, y hay muchas personas trabajando intensamente para mejorar eso (el movimiento GrOC, “Gramática Orientada a las Competencias”, es una de las principales iniciativas en esa dirección), pero los causantes del problema no son los maestros y profesores de Instituto, sino que lo somos los profesores universitarios encargados de la formación de aquellos.

Las preguntas acuciantes entonces son las siguientes: ¿Por qué en las universidades pueden persistir en ciertos ámbitos teorías o modelos ya olvidados en la literatura científica? ¿Cómo es posible que haya profesores y catedráticos de universidad dando vueltas en círculo alrededor de 1958?

He dado a entender al inicio que hay una diferencia según si hablamos de ciencias naturales o de “ciencias humanas”, y es obvio que ahí radica parte al menos de la explicación. Por supuesto, no creo realmente que la lingüística o la teoría gramatical sean ciencias de pacotilla, pero es inevitable esa conclusión a la vista de lo que estoy contando. Escribí un largo y denso libro (Gramática natural, disponible aquí) argumentando que la teoría gramatical, la gramática, es una ciencia natural como la física o la biología, pero no soy tan ingenuo como para pensar que las cosas funcionan igual en el campo de las humanidades y en el de las ciencias naturales, aunque solo sea porque la teoría gramatical forma parte en realidad de la ciencia cognitiva, un ámbito en el que el peso de la teoría y la especulación frente a los hechos empíricamente observables con un microscopio o un acelerador de partículas es todavía demasiado grande.

Pero tampoco es ajeno a este problema el arrinconamiento del estudio y la enseñanza de la gramática que se ha producido en los departamentos de Lengua Española y de Lingüística en la Universidad española (aunque no exclusivamente) en los últimos decenios, en beneficio de otras aproximaciones al lenguaje y las lenguas, tales como la pragmática, la sociolingüística, el estudio del léxico, la historia de las lenguas, el estudio de la variación lingüística, etc. Todas ellas son aportaciones relevantes y necesarias, pero no deberían desplazar al núcleo esencial de la ciencia del lenguaje: la teoría gramatical.

Anuncios

Todo lo que quieres saber sobre ‘portavoza’ y no te atreves a preguntar

En una aportación anterior en este blog (No permita que el sexo de los árboles le impida ver el género del bosque) consideraba el asunto de la confusión entre género gramatical y sexo (o identidad de género) en relación con el uso no sexista del lenguaje, especialmente con respecto al uso del masculino genérico. No repetiré aquí las ideas y argumentos ya expuestos, pero me parece oportuno hacer unas observaciones complementarias en relación con el célebre neologismo portavoza, acuñado por la portavoz parlamentaria Dª Irene Montero en fechas recientes.

800px-Irene_Montero,_durante_la_entrevista_con_eldiario.es_(cropped)Aunque voy a intentar evadirme de los factores clave en la producción y recepción de dicho término (el activismo feminista y la ideología política) y me voy a centrar en el análisis estrictamente lingüístico del fenómeno, no puedo sustraerme de expresar el doble estupor que me ha causado la repercusión mediática del invento: por una parte, por la acerba crítica por parte de algunos y, por la otra, por la acrítica aceptación por parte de otros. Espero que esta reflexión sirva para atenuar tales extremos y proporcione herramientas analíticas más sólidas para enjuiciar los límites y el alcance del activismo aplicado a la gramática del español.

En teoría gramatical, género es el nombre que le damos a las clases de nombres (o sustantivos) en función de las variaciones que inducen en la concordancia con otras clases de palabras (principalmente adjetivos y determinantes). Por tanto, en las lenguas en las que no hay concordancia, no hay género. En inglés, por ejemplo, los nombres no tienen género porque los adjetivos y los determinantes en esa lengua no varían en función del género. Así, en español tenemos La mujer pequeña y El hombre pequeño reflejando que en español hay dos géneros (femenino y masculino), mientras que en inglés dicen The little woman y The little man, sin diferencia alguna en el determinante y el adjetivo. El género, por tanto, es una clasificación de los nombres en diversas clases formales a los meros efectos de la concordancia.

El lector sin formación en lingüística ya podía sospechar esto al advertir que en los nombres inanimados (esto es, que designan entidades sin sexo) el género en español es una propiedad caprichosa que no guarda correlación alguna con el significado del propio nombre. Así, en nuestra lengua, los nombres acabados en –a suelen ser femeninos (mesa, silla, trampa), pero no siempre (día, aroma, cisma, clima, dogma). Los nombres acabados en –o suelen ser masculinos (fuego, odio, cuerpo, libro), pero no todos (mano, libido, nao). Los acabados en –e pueden ser masculinos o femeninos (el roce, la fuente), igual que los acabados en –i o en –u (el alhelí, la bici, el ímpetu o la tribu). Los nombres acabados en consonante igualmente pueden ser masculinos o femeninos: árbol, césped, regaliz, anís o hábitat son masculinos y vocal, pared, perdiz, tortícolis o flor son femeninos. Nada hay en el significado de esas palabras que justifique su adscripción genérica.

Por otra parte, aunque hay una clara tendencia a correlacionar la terminación en –a con nombres de género femenino y la terminación en –o con nombres en género masculino, la cantidad de excepciones y la casuística brevemente repasada dejan claro que considerar que -a y -o finales son morfemas de género en los nombres es arriesgada, cuando no incoherente. La NGLE (2.3c), siguiendo tendencias recientes en morfología, sugiere al respecto que es más interesante considerar esas terminaciones como marcas de palabra (relevantes para la morfología y la fonología) y considerar que estos nombres no tienen un morfema flexivo de género, sino que poseen género inherente. Puede ser discutible, pero es relevante observar que, en rigor, donde pueden existir morfemas flexivos es en los elementos que reflejan la concordancia dictada por los nombres (y no en los nombres en sí), esto es, en los adjetivos, artículos y demás elementos adnominales que muestran concordancia. Si comparamos la expresión Todas aquellas torres blancas con Todos aquellos muebles blancos, apreciamos que la oposición -a/-o para mostrar el género es más propia de los elementos adnominales que de los propios nombres, ambos marcados con –e.

Asumiremos, por tanto, que los nombres tienen género inherente (esto es, que el género es una propiedad de toda la palabra, no de su terminación) y que solo las palabras que concuerdan (como los adjetivos) tienen morfemas flexivos de género. La razón esencial para esta propuesta es que, por definición, la variación flexiva no crea nuevas palabras, sino diferentes formas de la misma palabra. Así, claro, clara, claros y claras no son cuatro palabras distintas ni significan cosas distintas, sino que son cuatro formas de la misma palabra. Para evitar equívocos, algunos lingüistas emplean el término lexema en lugar de palabra para este último uso, de manera que diremos que en la lista anterior hay un lexema (el adjetivo que significa ‘claro’) y cuatro formas de palabra distintas (masculino singular, femenino singular, masculino plural y femenino plural, que serán seleccionadas en función de con qué nombre concuerden). Sin embargo, hombre y mujer no son dos formas de la misma palabra, sino dos lexemas distintos. Y, desde luego, no diríamos que mujer es el femenino de hombre o que hombre es el masculino de mujer como sí decimos con propiedad que claro es el masculino de clara o que clara es el femenino de claro.

Lo relevante para lo que nos interesa ahora es que lo mismo tendremos que decir entonces de niño y niña (en contra ahora de la NGLE 2.3b): no son dos formas de la misma palabra, sino dos palabras distintas, dos lexemas distintos, pues obviamente no significan lo mismo. Una niña no es un niño de género femenino, sino otra cosa distinta. Así, es importante distinguir la diferente naturaleza de -o y -a finales en niño/niña y en claro/clara. En el primer caso esos sonidos vocálicos reflejan el género al que pertenecen y en el segundo son marcas de concordancia. Solo en el segundo caso se pueden considerar morfemas flexivos. Mi colega (y, sin embargo, amigo) David Serrano-Dolader publicó una útil síntesis de esta controversia, con conclusiones diferentes a la mía (Serrano-Dolader 2010).

Lo que sostengo es que en el caso de niño la -o final es igual que la de libr-o, y en el caso de niña la -a final es igual que la de mes-a, una marca de palabra sin significado. Por tanto, como la –o de libro, la –o de niño no significa ‘varón’, sino que marca que esa palabra inducirá concordancia en masculino. Por su parte, la –a de mesa, no significa ‘hembra’, y tampoco lo hace la de niña, sino que marca que esos nombres concordarán en femenino. Si el género del nombre es inherente, no se gana nada aduciendo que esas vocales finales tienen significado en los nombres de persona y no en los nombres de cosa: más bien lo que sucede es que en los nombres de persona (y en parte de animales) sí existe una tendencia a que el género sea semánticamente interpretable (esto es, como sexo), mientras que en los nombres inanimados el género (en el caso del español) es un residuo puramente formal. Una excepción son los llamados epicenos, que aunque designan seres animados, no restringen el sexo en función del género (jirafa, tiburón, persona o bebé son algunos ejemplos).

Por supuesto, niño denota un varón (salvo que se use genéricamente) y niña denota una hembra (y por eso son dos lexemas distintos). Y obviamente no es casualidad que la palabra niño sea masculina y que la palabra niña sea femenina. Tradicionalmente, al género que incluía las palabras para designar ‘machos’ (como hombre o toro) se le llamaba ‘género masculino’ y al género que incluía palabras para designar ‘hembras’ (como mujer o vaca) se le llamaba ‘género femenino’, pero ello no significa, obviamente, que en español todas las palabras masculinas denoten ‘machos’ y que todas las palabras femeninas denoten ‘hembras’. Lo que ha hecho la lengua en este caso es emplear una misma raíz (niñ-) para crear dos lexemas distintos (niño y niña) en vez de obligar a memorizar una raíz distinta para cada género (como en los llamados heterónimos del tipo de hombre/mujer o toro/vaca). Por su parte, aunque ahora no nos concierne directamente, los morfemas de plural sí son flexivos y no inherentes (así, niño y niños son dos formas de palabra del mismo lexema y no dos lexemas distintos).

Tal y como hemos observado antes considerando los nombres inanimados, en español la marca de palabra típica para el género masculino es –o, mientras que la marca de palabra típica para el género femenino es –a: así, cuando creamos una palabra nueva que designa una mujer tendemos a poner una –a como marca de palabra (jueza, médica o los mediáticos miembra o portavoza), porque sabemos que los nombres de persona que designan mujeres, niñas y hembras en general pertenecen al género femenino (hay pocas excepciones, que son de género masculino por razones formales, como putón o mujerón) y porque sabemos además que muchas palabras femeninas llevan una –a. Pero no es el caso que tales nombres designen mujeres, niñas y hembras porque sean femeninos.

Espero que ya se vaya viendo por dónde voy: no todo nombre que designe mujeres, niñas o hembras de animales tiene que marcarse con una –a para que tenga género femenino. Lo tiene inherentemente. Veamos por qué.

Si reconsideramos solo los ejemplos de nombres inanimados vistos hasta ahora, lo que observamos es una clasificación de todos los nombres del español en dos clases a efectos de concordancia, sin correlación alguna con el significado o denotación de los nombres. Así, que un nombre sea masculino o femenino sería algo totalmente arbitrario en relación con su significado o denotación. En efecto, si esto fuera todo lo que hay, podríamos perfectamente prescindir de las confusas etiquetas “masculino” y “femenino” y romper toda conexión entre género gramatical y sexo. Y en tal caso, la palabra portavoza nunca habría sido pronunciada. Y tampoco existirían los pares niño/niña, lobo/loba o ministro/ministra. Obviamente, lo que tienen de especial estas palabras es que designan seres animados susceptibles de diferenciarse por el sexo. Y el sexo (como el alma) siempre ha interesado mucho al ser humano.

Aunque algunos autores sostienen que la asignación de género a los nombres es arbitraria e impredecible, si nos centramos en los nombres que designan personas y animales (especialmente animales domésticos o muy conocidos, cuyo sexo es relevante para nosotros), lo cierto es que el sexo tiene mucho que decir en las estrategias que las lenguas del mundo emplean para asignar el género inherente a los nombres. De hecho, según Corbett, autor de un tratado clásico sobre el género (Corbett 1991), la posibilidad de predecir el género de los nombres en las lenguas del mundo está en torno al 85%. Claro que aquí se incluyen no solo los criterios semánticos (del tipo de macho/hembra o animado/inanimado), sino también los criterios morfológicos (cuando ciertas propiedades morfológicas, como la declinación, determinan el género) o criterios fonológicos (cuando ciertos fonemas determinan el género). En todo caso, los criterios semánticos son los más extendidos y, como señala Corbett, no hay lenguas en las que los únicos criterios sean formales (esto es, puramente morfológicos o fonológicos). Es relevante recordar de nuevo que el género nominal es inherente, lo que implica que debe aprenderse de memoria. No es extraño entonces que exista una cierta motivación semántica, reforzada por motivación morfo-fonológica adicional, que facilite en las lenguas que tienen género la tarea de adquisición de ese rasgo, imprescindible para el uso del idioma. Así, la –a de niña (aunque cueste creerlo) no hace a niña femenino, pero nos recuerda que lo es a la hora de establecer concordancias.

En las lenguas del mundo el número de géneros varía desde dos (como en español) o tres (como en alemán o en latín) hasta una decena o más (en función de cómo se consideren los llamados clasificadores nominales). Los contenidos denotativos que suelen tener que ver con la asignación de género a los nombres no son arbitrarios e inmotivados, sino que parecen tener una clara base antropológica y cognitiva. Se trata de contenidos relativos a la animación, la humanidad, el sexo, o el tamaño y la forma de los objetos, aunque también hay casos de rasgos menos frecuentes, como la comestibilidad o el peligro (como recoge el célebre título de George Lakoff: Woman, Fire, and Dangerous Things, aludiendo a la denotación del género femenino en la lengua australiana dyirbal).

Como señala Corbett (de quien tomo los ejemplos siguientes), hay lenguas en las que el género de los nombres siempre es predecible a partir del significado (digamos que la asignación de género es puramente semántica). Por ejemplo en godoberi (una lengua del Cáucaso) hay tres géneros (I, II y III): al género I pertenecen todos los nombres que denotan seres racionales varones, al género II todos los nombres que denotan seres racionales de sexo femenino y al género III todos los demás. Así, cualquier palabra que denote a una mujer será femenina, independientemente de su forma morfológica y fonológica (recuérdese que esto significa simplemente que inducirá a concordancia femenina). Las lenguas no suelen ser tan simples y consistentes, incluso entre aquellas que solo usan criterios semánticos. En archi (otra lengua caucásica) hay cuatro géneros (I, II, III, y IV). Los dos primeros son como en godoberi: machos y hembras racionales (o sea, humanos y deidades, etc.) pertenecen a los géneros I y II, según el sexo. Al género III se adscriben animales domésticos y salvajes adultos, insectos, seres mitológicos, instrumentos musicales, cereales, árboles, fenómenos acuáticos y fenómenos astronómicos y meteorológicos. Al género IV pertenecen los nombres que denotan animales salvajes y domésticos jóvenes, los animales pequeños, herramientas y objetos de corte, ropas, metales, líquidos y nombres abstractos. La clave, muy brumosa, parece ser que a III pertenecen los nombres que denotan objetos concretos y grandes, mientras que a IV se asocian los que no lo son.

Junto a estas lenguas, que confían solo en criterios semánticos, encontramos otras que los complementan con criterios formales, más o menos claros. Así, en ruso la determinación de a qué género (masculino, femenino o neutro) pertenecen los nombres inanimados depende de la declinación casual a la que pertenezcan, tal y como también sucedía en latín. El español es de este tipo, en el sentido de que tiende a usar un criterio semántico para la distribución de nombres que designan personas y animales (en función del sexo), pero, en vez que asignar un género diferente a los nombres no animados (el neutro o clase III del godoberi), los distribuye en los dos primeros géneros basándose en criterios formales, tanto morfológicos como fonológicos, y una buena parte de manera arbitraria. Los detalles de este mecanismo (a veces históricamente condicionado) son complejos y, en todo caso, irrelevantes para nuestros intereses. De cualquier manera, es importante notar que es por causa de criterios formales que mesa es femenino y libro es masculino, que construcción es femenino o que mantenimiento es masculino.

Con este contexto ya estamos en mejor disposición de abordar el género de los nombres de persona (y de animales) en español y las implicaciones de neologismos como portavoza o miembra, por mencionar dos especialmente horrísonos para el hablante nativo medio (y muy mediáticos).

Según el análisis que he propuesto, no deberían existir pares del tipo niño/-a, chico/-a o lobo/-a, al menos los dos primeros, puesto que he asumido que en español los nombres de persona adquieren el género semánticamente, no formalmente, aunque puedan tener marca formal. De hecho, las lenguas se las pueden arreglar perfectamente sin esos pares. Incluso en español no es infrecuente que la misma oposición se exprese con palabras diferentes: hombre/mujer, caballo/yegua o nuera/yerno. Pero, dado que hay una tendencia paradigmática a que palabras del mismo género compartan aspectos formales (nótese que yegua y nuera acaban en –a y que caballo y yerno acaban en –o, aunque no tendrían por qué), no es extraño que, como antes adelantaba, la lengua intente utilizar óptimamente los recursos cognitivos disponibles usando pares mínimos compartiendo la misma raíz. Así, en español hay cientos de nombres de oficios o dedicaciones que muestran oposición genérica por medio de las terminaciones -o/-a (farmacéutico/-a, ginecólogo/-a, ministro/-a, etc.). Otro patrón bastante productivo en este sentido es el de nombres en –or: director/directora, doctor/doctora, lector/lectora o profesor/profesora.

Oposiciones comunes de este tipo son las que están detrás de innovaciones léxicas como la que nos ocupa. Todo parece indicar que, en el afán de hacer notorio el género femenino, la innovación pretende aplicar ese esquema a los que la gramática académica denomina nombres ambiguos o comunes en cuanto al género. Este es el caso del hasta ahora discreto término portavoz. Como todos los de su clase, este nombre tiene los dos géneros, razón por la cual los nombres de este tipo no suelen tener marca explícita de género. Es importante observar que los nombres comunes en cuanto al género son en sí mismos un poderoso recurso de las lenguas para optimizar el coste de la memorización del género inherente a los lexemas. Ejemplos típicos son el cónyuge/la cónyuge, el pianista/la pianista, el testigo/la testigo, el artista/la artista y miles más. Lo que caracteriza a estos nombres es que el género se les asigna semánticamente (en función del sexo), y no formalmente.

Aunque descriptivamente afortunada, la idea de que estos nombres tienen los dos géneros es confusa y no parece muy justificada. Quizá sería más adecuado decir que no tienen género inherente y que lo adquieren de otros elementos (explícitos o no) con los que se construyen. Así, en el par el pianista / la pianista podría ser interesante pensar que el nombre pianista se construye apuesto a un nombre con género (hombre o mujer): el hombre pianista, la mujer pianista. En tales casos la concordancia del artículo se establece con hombre o mujer, no con pianista, que no es el núcleo de la construcción. La elisión de esos núcleos sintácticos produce las formas el pianista o la pianista que motivan la denominación de nombres comunes en cuanto al género. Una forma de visualizar esto podría ser la siguiente: imaginemos que la entrada léxica de pianista representa a este nombre con una variable (x pianista) y que el uso del mismo implica que la variable x (que vendría a significar ‘persona’) tiene que estar ligada o enlazada a un tipo de persona concreta (hombre o mujer). Cuando decimos La pianista alemana hemos ligado x con ‘mujer’ (o con, por ejemplo, Alice Sara Ott), mientras que cuando decimos El pianista alemán hemos ligado x con ‘hombre’ (o, por ejemplo, con Wilhelm Kempff). De hecho, los pronombres personales (yo, , usted, me, te, etc., salvo lo, la y sus plurales) suelen considerarse de la misma naturaleza que los nombres comunes en cuanto al género (GDLE 2.4b): Me quedaré tranquilo/tranquila. Como antes, parece más adecuado decir que estos pronombres adquieren el género de otro elemento (en este caso del referente) que decir que tienen los dos géneros.

Sea como fuere, es evidente que la marca de género adicional en nombres comunes en cuanto al género es innecesaria (desde el punto de vista social) e incoherente (desde el punto de vista gramatical). Nótese que si añadimos una marca de género femenino (como se ha hecho en portavoza), en realidad estamos cancelando el doble valor genérico de esos nombres, lo que obligaría entonces a acuñar decenas (o centenares) de nuevas palabras, tales como mártira, prócera, viejalesa, vivalesa, pelagatosa, mandamasa, auxiliara, titulara, etc. (de nombres acabados en consonante) o detectiva, adlátera, amanuensa, consorta, contabla, extraterrestra, hereja, mequetrefa, pobra o tipla (de nombres acabados en –e). Todos ellos, como portavoza, suenan mal al oído del hablante nativo, precisamente porque contravienen los principios tácitos de su gramática interna, que los analiza como comunes en cuanto al género.

De hecho, la adición de –a a portavoz revela un reanálisis de ese nombre como masculino, fruto más (paradójicamente) de un prejuicio social que de una propiedad formal de la palabra (que, curiosamente, termina con una palabra de género femenino, voz). En este caso particular hay otro efecto indeseado: al adjuntar un supuesto morfema de género, se hace más opaca la estructura interna y transparente del término, un compuesto que básicamente consiste en la nominalización de una estructura verbal transitiva.

La idea de que los nombres comunes en cuanto al género en realidad no tienen género inherente viene también apoyada por la nutridísima colección de nombres de persona formados con la terminación –nte propia de formas participiales de presente del latín: agente, amante, aspirante, cantante, combatiente, concursante, donante, informante, manifestante, oyente, penitente, pretendiente, representante, simpatizante, terrateniente, viajante o viandante, entre otros muchos. Todos ellos son comunes en cuanto al género y, dada su naturaleza predicativa, firmes candidatos a ser nominalizaciones resultantes de la omisión de hombre o mujer, como el hombre aspirante o la mujer aspirante: el aspirante, la aspirante. O, si nos ha gustado lo de antes, con una variable x que se liga contextualmente determinado el género en función del sexo, algo propio de los nombres de persona.

Como señala la NGLE (2.5j), existen pares -nte/-nta, fruto del reanálisis erróneo de la forma en –nte como masculina, del tipo de cliente/clienta, dependiente/dependienta, figurante/figuranta o presidente/presidenta. A mí, personalmente, esos femeninos me suenan mal y no los usaría nunca (salvo presidenta), pero no por cuestiones ideológicas, sino por puro conservadurismo normativo. Nunca digo jueza o médica porque me suenan igual de catetos que detrás míaandaste (¡o andastes!).

El caso de presidenta, como el de jueza o médica (o el caso inverso de modisto) son ejemplos claros de que formaciones derivadas de un error de hipercorrección pueden naturalizarse y ser usadas ampliamente por parte de muchos hablantes. La lógica errónea de presidenta (la misma lógica que subyace a portavoza) y su relativo éxito debería inducir a que ese patrón se extendiera. Sin embargo, es evidente que formaciones como agenta, amanta, aspiranta, cantanta o gerenta no parecen aceptables incluso para hablantes menos escrupulosos que yo y, desde luego, no tienen uso documentado significativo. La explicación de esa limitación es, precisamente, que contradicen un patrón asentado y efectivo en español: el uso para personas de nombres comunes en cuanto al género.

He comenzado diciendo que me causaban sorpresa tanto los furibundos ataques a portavoza (y a su inventora) como la acrítica aceptación de ese engendro léxico por parte de personas formadas. De la segunda causa, no tengo nada que decir. Cada palo que aguante su vela. Pero de la primera sí.

Es sabido que la causa más extendida de todos los cambios lingüísticos son los errores cometidos por los hablantes. Una de las razones por las que el español es como es y no de otra manera es lo mal que hablaban latín los iberos y los
vascones. Las innovaciones del tipo de médica, jueza, portavoza o el inefable miembra (otro caso de nombre común en cuanto al género) son fruto de una deficiente cultura lingüística, un problema derivado de una deficiente enseñanza de la gramática en colegios e institutos. Dicha incultura puede verse complementada, en algunos casos, por la persuasión de que la marca explícita de género femenino puede ayudar a conseguir la visibilidad social de las mujeres fuera de sus roles subalternos tradicionales. Sin embargo, ninguna de esas expresiones merece ser considerada como un ataque a la lengua española (o a cualquier otra) ni, por supuesto, como una fuerza destructora. Eso es ridículo. Lo único que puede destruir una lengua es que la gente deje de hablarla, nunca que la use como le parezca oportuno.

A ver si va a ser que la indignación en nombre de la gramática es en realidad indignación por las ideas que subyacen a tan infelices propuestas o a las de quien las formula.

¡Es la estructura, insensatos! (segunda parte: jerarquía)

Terminaba la primera parte de este post afirmando que Christiansen y Chater (2015) (C&C) aún cometían un error mayor que el de Everett y otros, en el sentido de que no solo también confunden la recursividad (como propiedad formal del sistema computacional) con la subordinación isomórfica (aka “estructuras recursivas”), sino que, además, haciendo casi venial la confusión, niegan que haya en realidad un sistema computacional detrás de la generación y procesamiento de las expresiones lingüísticas. En su lugar proponen que nuestra aparente capacidad para tratar (limitadamente) con la estructura recursiva en las lenguas sería una capacidad aprendida por la práctica y derivada de nuestra capacidad general para aprender secuencias lineales:

We argue that our limited ability to deal with recursive structure in natural language is an acquired skill, relying on non-linguistic abilities for sequence learning (Christiansen y Chater 2015: 2).

Lo que dan a entender, por tanto, es que si nuestra capacidad para procesar la estructura sintáctica se basa en nuestra capacidad para aprender secuencias lineales, entonces la estructura sintáctica es esencialmente lineal. De hecho, argumentan (usando datos genéticos y neurológicos) que los seres humanos han desarrollado una capacidad específica para aprender secuencias complejas, y proponen que esa capacidad es la que estaría detrás de nuestra capacidad lingüística, haciendo innecesario postular una FL, incluso una mínima:

Hence, both comparative and genetic evidence suggests that humans have evolved complex sequence learning abilities, which, in turn, appear to have been pressed into service to support the emergence of our linguistic skills (Christiansen y Chater 2015: 4)

Es curioso con qué facilidad se acepta en este caso una adaptación evolutiva específica para aprender secuencial lineales, pero ese es otro asunto. En todo caso, no parece que haya nada que objetar a que los seres humanos disponemos de capacidades más desarrolladas que otros primates para aprender secuencias complejas, ni sería prudente negar que tal capacidad es especialmente útil para aprender y usar el lenguaje. Esto es así porque las lenguas humanas tienen una obvia dimensión secuencial: hablamos produciendo cadenas lineales de palabras y aprendemos a hablar oyendo (y procesando) cadenas lineales de sonidos. Lo objetable (lo que incluso se puede demostrar que es falso) es asumir que la sintaxis de las lenguas humanas sea lineal. Esta es una creencia tradicional, pre-científica, análoga en la física a la creencia de que los átomos son indivisibles o a la creencia de que se puede predecir el comportamiento de todas las partículas.

Pero antes de volver sobre esto, es importante notar también que al confundir la estructura sintáctica con la secuencia lineal que la representa, C&S (y otros muchos autores) confunden también la gramática con el procesamiento. De hecho, no es que los confundan, es que proponen expresamente que la gramática es innecesaria, y que basta con el procesamiento para explicar la estructura de las lenguas.

Su argumento esencial (aparte de considerar que el lenguaje es un objeto cultural y no biológico) se basa en un despliegue meritorio de experimentación (de otros autores y mucha hecha por ellos mismos, básicamente de simulaciones con redes neurales y contrastes conductuales con humanos) que termina mostrando que las redes neurales artificiales son capaces de evolucionar para replicar básicamente las limitaciones que los humanos tienen para procesar “estructuras recursivas”. Dado que asumen que han mostrado que las redes neurales artificiales emulan las capacidades humanas, y dado que las redes neurales no desarrollan un sistema recursivo interno, entonces concluyen que no hay un sistema recursivo interno dentro de los humanos.

El problema para esta conclusión es que el procesamiento de la secuencia lineal de palabras es solo una parte del procesamiento lingüístico, precisamente porque la estructura sintáctica no es lineal, sino jerárquica.

Consideremos una oración típica de lo que sería una “estructura recursiva” en la que tanto los humanos con las redes neurales entrenadas muestran un mismo patrón de ineficacia, tales como las llamadas oraciones de subordinación central (un tipo de oraciones de “vía muerta”):

1. El cocinero al que el camarero al que el taxista ofendió apreciaba admiraba a los músicos

Cualquier hablante nativo del español consideraría en una primera lectura la oración de 1 ininteligible y la juzgaría como agramatical en un experimento de valoración. Sin embargo, es una oración perfectamente gramatical (léase despacio unas pocas veces, pónganse una comas mentales, y su sentido aflorará como un resplandor en la noche).

Ya Chomsky y Miller, en los años 50, consideraron estos casos como nítidos ejemplos de la diferencia entre competencia y actuación. Aunque la gramática genera esa oración, la gente no la usa porque exige mucho esfuerzo de procesamiento. La existencia de oraciones gramaticales difíciles de procesar es, de hecho, una prueba directa de la existencia de un conocimiento lingüístico independiente del uso del lenguaje en tiempo real (y también de que la sintaxis interna no surgió para la comunicación, pero eso lo discutiremos luego).

C&C objetan que si hubiera una competencia recursiva innata, no debería haber dificultades de procesamiento y que alegar problemas de sobrecarga de memoria de trabajo (la explicación de Miller) es muy barroco, dado que hay personas que lo hacen mejor que otras y que en algunas lenguas se usan más que en otras. Es una actitud razonable si uno piensa que la sintaxis humana consiste en poner palabras en un orden lineal esencialmente plano y que la capacidad sintáctica humana es un refinamiento de la capacidad de aprendizaje de secuencias lineales.

Y, en efecto, los problemas de procesamiento que produce la oración de 1 tienen que ver con el orden lineal. Si lo alteramos moderando las inversiones de sujeto, obtenemos la versión de 2, mucho más amigable (pero con la misma estructura y, por tanto, el mismo significado):

2. El cocinero al que apreciaba el camarero al que ofendió el taxista admiraba a los músicos

Pero esto nos permite dos conclusiones relevantes. Primero, que el hecho de que signifiquen lo mismo teniendo diferente orden pone de manifiesto que el orden no determina el significado. Segundo, que, en efecto, el procesador tiene preferencia por las relaciones gramaticales adyacentes (digamos, “locales” linealmente). Pero nótese que ese es un hecho esperable si estamos procesando una estructura que se ha “aplanado”, esto es, que al externalizarse se ha convertido en una secuencia lineal de palabras. Si empleamos nuestra capacidad para reconocer secuencias como una parte de nuestro procesamiento lingüístico, es esperable que 1 cueste más de procesar que 2, precisamente porque en 1 muchas de las relaciones sintácticas relevantes se presentan “interrumpidas” por otros elementos, que no dejan “cerrar” la derivación y, plausiblemente, sobrecargan la memoria de trabajo. Por tanto, que el procesamiento sintáctico se resienta de hechos de orden lineal no permite concluir que la sintaxis sea lineal.

Además, los propios C&C reportan un hecho interesante en este contexto de distinción entre las propiedades formales de las expresiones generadas por el sistema computacional y el procesador lineal empleado en su uso. Tanto las redes neurales como los humanos (de lengua inglesa) tienden a considerar más aceptable el ejemplo de 3, que es agramatical, que el de 1, siendo que 3 es el resultado de quitar un verbo a 1, formando una no oración:

3. * El cocinero al que el camarero al que el taxista ofendió apreciaba a los músicos

Es comprensible que la ausencia del verbo principal en 3 alivie la sobrecarga de procesamiento, pero entonces lo que se pone de manifiesto es que lo que los experimentos están midiendo es la “procesabilidad lineal” y no la gramática (al fin y al cabo 1 tiene una estructura y sentido coherentes y 3 carece de ambos).

De manera también interesante, aducen C&C que los hablantes de lengua alemana no muestran esa preferencia por 3 sobre 1, dado que están acostumbrados a procesar oraciones con alteraciones sistemáticas de la adyacencia lineal (como por ejemplo dass Ingrid Peter Hans schwimmen lassen sah, literalmente ‘que Ingrid Peter Hans nadar dejar vio’, o sea, en román paladino, que Ingrid vio a Peter dejar nadar a Hans). Esta variabilidad interlingüística en la capacidad de procesamiento es empleada por C&C para reforzar su hipótesis de que la capacidad de procesar estructura recursiva depende de la práctica y la costumbre y que, por tanto, no sería innata y, en consecuencia, no habría FL.

arbol3Sin embargo, la conclusión no se sostiene. Lo que, si acaso, evidencian esos hechos es que la capacidad de procesamiento secuencial se puede entrenar, algo que en modo alguno está en contradicción con la existencia de un sistema computacional recursivo. El sistema computacional recursivo (la sintaxis) genera un número potencialmente infinito de estructuras gramaticales jerárquicas, como las de la figura que ilustra esta entrada. Dichas estructuras, como también resulta representado en la figura, se convierten en secuencias lineales en la externalización del lenguaje para la comunicación. Y una vez externalizadas, unas son más o menos difíciles de procesar por parte de nuestra capacidad de procesamiento lineal y, por supuesto, en función de nuestra experiencia previa y hábitos, tendremos mayor o menor facilidad para ello, como sucede con cualquier lector que ahora vuelva sobre el ejemplo de 1.

La pregunta importante, por tanto, es la siguiente: ¿puede realmente el procesamiento de secuencias lineales dar cuenta de la estructura sintáctica de las lenguas humanas?

Ya sabemos la respuesta de C&C, que les lleva a considerar que la complejidad estructural de la sintaxis de las lenguas humanas es una estipulación y no un hecho empírico contrastado:

From our usage-based perspective, the answer does not necessarily require the postulation of recursive mechanisms as long as the proposed mechanisms can deal with the level of complex recursive structure that humans can actually process. In other words, what needs to be accounted for is the empirical evidence regarding human processing of complex recursive structures, and not theoretical presuppositions about recursion as a stipulated property of our language system. (Christiansen y Chater, 2015: 7)

El error crucial de esa aproximación es, como adelantaba, la indistinción entre, de una parte, las expresiones lingüísticas que emitimos (típicamente en cadenas secuenciales de palabras -como las que el lector tiene delante-) y, de otra, la estructura sintáctica (inaudible e invisible) que determina por qué las expresiones significan lo que significan y no otra cosa.

Puede parecer trivial tener que señalar esto, pero a la vista está que no. La sutil y compleja “estructura subatómica” que subyace a las expresiones lingüísticas está simplemente pasando desapercibida para buena parte de la profesión, esto es, para buena parte de los lingüistas profesionales, lo que sin duda es un problema de la teoría lingüística actual y puede ser un serio obstáculo para su integración en el cuerpo central de la ciencia cognitiva.

Quizá respondiendo a esa misma percepción, casi a la vez que ha aparecido el artículo de C&C, también se acaba de publicar en diciembre pasado, en otra revista de relumbrón en ciencia cognitiva (Trends in Cognitive Science) un artículo de Everaert, Huybregts, Chomsky, Berwick y Bolhuis con el también sugerente título “Structures, Not Strings: Linguistics as Part of the Cognitive Sciences”. Los motivos por los que unos cuantos “popes” de la gramática generativa actual (incluyendo al “pope”) se han puesto a escribir un resumen rayano en lo trivial de la investigación en su campo están claros:

[T]aking language as a computational cognitive mechanism seriously, allow us to address issues left unexplained in the increasingly popular surface-oriented approaches to language (Everaert et al., 2015: 729)

Veamos un ejemplo más de lo que queda sin explicar, en este caso inspirado en uno que discuten Everaert et al.:

4. El vestido que me puse no convenció a nadie

En 4 podemos observar que el término de polaridad negativa nadie tiene que ir precedido por no. De lo contrario, la oración está mal formada:

5. *El vestido que me puse convenció a nadie

Podríamos afirmar que la condición para poder usar nadie en esa oración es que antes haya un no. Pero entonces el siguiente ejemplo del japonés sería un contraejemplo:

6. Taroo-wa nani-mo tabe-nakat-ta  (Taroo no comió nada)

7. *Taroo-wa nani-mo tabe-ta (*Taroo comió nada)

El ejemplo de 7, paralelo al de 5, muestra que si no hay un no (-nakat-) no se puede usar nadie (nani-mo, en este caso ‘nada’). Pero 6 es correcta y ahí es nadie/nada el que precede a no, por lo que no podemos generalizar la explicación. Tendríamos que asumir que en español no tiene que preceder a nadie pero que en japonés es al revés. Sin embargo, lo relevante es que el orden lineal es insuficiente para dar una explicación del contraste:

8. *El vestido que no me puse convenció a nadie

En 8 observamos que, aunque no precede a nadie, la oración es agramatical. Podríamos decir entonces que lo que pasa es que el no tiene que ir con el verbo del que es complemento nadie, pero entonces ya no estamos hablando de orden lineal, estamos hablando de jerarquía. La condición para usar nadie tiene que ver con la posición estructural (en un árbol como el de la ilustración) en la que está no, y no con la precedencia. La idea elemental es que no no puede estar incluido en un constituyente desde el que no sea hermano estructural del constituyente que incluye a nadie (lo que en la jerga llamamos “mando-c”). Así, el no de 8 está “atrapado” en la oración de relativo que no me puse y no tiene la relación estructural necesaria con nadie (y dejo al lector aplicado la explicación de por qué A nadie le convenció el vestido que me puse es correcta).

Pero lo relevante de todo esto es que la interpretación de las expresiones lingüísticas, aunque se materializan linealmente, es sensible a la estructura y no al orden lineal (las reglas son dependientes de la estructura, en la jerga antigua). La prueba palmaria está en que en japonés, una lengua que linealiza sus constituyentes de manera diferente al español, las condiciones son las mismas, precisamente porque dependen de la estructura jerárquica propia de la sintaxis humana y no de cómo esa estructura luego se “aplane” para ser emitida o procesada por el sistema motor que produce las cadenas de sonidos.

En mi opinión, uno de los logros fundamentales de la gramática generativa (y especialmente del programa minimalista) ha sido poner de manifiesto que la conexión entre el sistema computacional (la sintaxis) y el componente conceptual-intencional, responsable en última instancia de la comprensión, es diferente a la conexión del sistema computacional con el componente sensoriomotor responsable de la externalización en señales físicas de las expresiones lingüísticas. Más concretamente, Chomsky ha defendido (desde 2007 al menos) que posiblemente el sistema computacional humano evolucionó / está optimizado para el sistema conceptual-intencional. De este modo, el primer uso del lenguaje sería el de un sistema interno de pensamiento, esto es, un lenguaje interno de la mente capaz de combinar de nuevos modos elementos conceptuales para crear conceptos más complejos (y, por tanto, pensamientos, posiblemente libres del control del estímulo). La posterior conexión con el sistema sensoriomotor para la externalización sería, por tanto, secundaria o ancilar. Y sería precisamente en esa conexión, sensible al entorno en su desarrollo en cada persona, en la que emergerían las diferencias entre las lenguas. La relación entre los componentes esenciales de la FL es, por tanto, asimétrica. En palabras de Everaert et al:

The asymmetry is: the mapping to meaning is primary and is blind to order (language as a system for thought), the mapping to sound/sign is secondary and needs order (imposed by externalization of language). The empirical claim is, therefore, that linear order is available for the mapping to sound/sign, but not for the mapping to meaning. (Everaert et al. 2015: 741)

Parafraseando a Everaert et al. podría decirse que los cómputos mentales en la creación y comprensión de expresiones lingüísticas (y de pensamientos en general) son ciegos a la ordenación lineal de las palabras que son articuladas o percibidas por los sistemas de input y output del interfaz con el sistema sensoriomotor, esto es, dicho más simplemente, que el orden lineal es irrelevante para la semántica y la sintaxis. El orden lineal es un rasgo secundario, impuesto en la externalización del lenguaje cuando este se usa para la comunicación.

Así, concluyen los autores, en la relación entre el sistema computacional y el componente conceptual-intencional la estructura jerárquica es necesaria y suficiente, mientras que el orden lineal es irrelevante. Por su parte, en la relación con el componente sensoriomotor, la estructura jerárquica es necesaria pero no suficiente, mientras que el orden lineal sí es necesario, pues lo impone la externalización. A modo de lema para llevar a casa, los autores lo exponen así:

What reaches the mind is unordered, what reaches the ear is ordered. (Everaert et al. 2015: 740)

Puede que haya algunos aspectos de esta visión que sean erróneos o que necesiten más ajuste y experimentación, pero no es cuestionable que la reducción de la sintaxis a orden lineal es simple desconocimiento de una rama de la ciencia que llamamos teoría sintáctica.

Reconozco que cuando leí el artículo de Everaert et al. en una revista de tanto impacto aparente sentí un poco de bochorno, puesto que cualquier estudiante de lingüística de cualquier universidad medianamente decente está familiarizado con su contenido, pero, como dicen sus autores:

These somewhat elementary but important insights have been recognized since the very origins of generative grammar, but seem to have been forgotten, ignored, or even denied without serious argument in recent times (Everaert et al. 2015: 742).

Hay muchas formas de hacer lingüística y todas tienen importantes cosas que aportar. Uno puede o no estar interesado por la sintaxis, pero no es prudente hacer como si no existiera.

¡Es la estructura, insensatos! (primera parte: recursividad)

En un reciente artículo publicado en la influyente Frontiers in Psychology, Christiansen y Chater (2015) proponen, con el provocador (y elocuente) título de “The Language Faculty that Wasn’t”, terminar de liquidar por completo la venerable noción de Facultad del Lenguaje (FL) de la tradición chomskiana. Su objetivo expreso es argumentar precisamente que no hay una FL, esto es, que el lenguaje no tiene un origen biológico, sino que es un objeto puramente cultural:

“it is time to return to viewing language as a cultural, and not a biological, phenomenon” (Christiansen y Chater 2015: 14).

Es curioso, pero en un libro reciente escrito a medias con Juan Carlos Moreno titulamos un capítulo como “The Paradox of Languages without a Faculty of Language” para remarcar lo inadecuado y contradictorio de la tradición que representan Christiansen y Chater (y otros muchos como Deacon, Hurford, Kirby o Briscoe) y ahora, ellos mismos (por supuesto sin citar nuestra aportación), titulan sus conclusiones como “Language Without a Faculty of Language”).

La estrategia (ciertamente inteligente) que emplean los autores para terminar de liquidar la FL es precisamente la de “unirse” a la deriva minimalista chomskiana y centrarse en atacar el último reducto de la FL tal y como se postula en el actual programa minimalista: la recursividad del sistema computacional.

En efecto, como es bien sabido, el desarrollo minimalista de la gramática generativa en los últimos veinticinco años ha ido reduciendo el peso de lo postulado como biológicamente especificado para el desarrollo del lenguaje en sus modelos teóricos de la FL, planteando que quizá lo único que haya que postular como específicamente humano y específicamente lingüístico de nuestra capacidad para aprender, conocer y usar las lenguas naturales sea un sistema computacional recursivo que genera de manera ilimitada estructuras jerárquicas binarias y endocéntricas. Llamemos Sistema Computacional Humano (SCH) a tal componente, siguiendo un uso habitual. El SCH es lo que en la influyente propuesta de Hauser, Chomsky y Fitch (2002) se denominaba la facultad del lenguaje en sentido estricto y es lo que recientemente Chomsky (en la introducción al volumen que conmemora los 50 años de la publicación de Aspects) ha caracterizado como la propiedad básica del lenguaje humano, esto es, la que está detrás del famoso “uso infinito de medios finitos” de Humboldt (al que, por cierto, Christiansen y Chater también citan).

A diferencia de ineficaces intentos anteriores de argumentar contra el SCH aduciendo que algunas lenguas humanas no tendrían estructuras recursivas (como en el célebre caso de Daniel Everett y la lengua pirahã), Christiansen y Chater (C&C en lo sucesivo) plantean una alternativa más radical, pues proponen que en realidad ninguna lengua tiene un sistema computacional recursivo:

“[T]he recursive character of aspects of natural language need not be explained by the operation of a dedicated recursive processing mechanism at all, but, rather, as emerging from domain-general sequence learning abilities”.

Según los autores, pues, la complejidad estructural de la sintaxis de las lenguas humanas (esa que precisamente sería la consecuencia de la aplicación de un mecanismo recursivo de generación de estructura) en realidad no sería tal, sino que sería una complejidad aparente. Nótese que afirman que el “carácter recursivo” de las expresiones lingüísticas emergería de una capacidad general de aprender secuencias lineales, lo que equivale a decir que la estructura sintáctica que subyace a las expresiones lingüísticas sería lineal, esto es, secuencial. Lo que en realidad viene a ser lo mismo que ignorar la teoría sintáctica de los últimos sesenta años como si no existiera.

Pero para un lingüista implicado en el estudio de la sintaxis de las lenguas naturales la situación es similar a aquella en la que alguien publicara un artículo en una revista de física diciendo que eso de la mecánica cuántica es una complicación innecesaria, una invención de los físicos, y que con el modelo de Newton y, como mucho, la teoría de la relatividad, es más que suficiente para explicar la estructura de la realidad. Puede parecer que estoy exagerando (para empezar, tal artículo nunca se publicaría), pero no es así en lo relativo a sugerir que la complejidad del objeto de estudio es más una invención del investigador que un atributo real del mismo, pues es lo que hacen Christiansen y Chater:

“What needs to be explained is the observable human ability to process recursive structure, and not recursion as a hypothesized part of some grammar formalism” (Christiansen y Chater 2015: 3).

Mas nótese el potencial problema: si los humanos no estamos dotados de un sistema computacional recursivo, sino que (como dice expresamente su propuesta) solo podemos usar mecanismos generales de aprendizaje de secuencias complejas para procesar estructuras recursivas, entonces no queda claro de dónde procederían esas “estructuras recursivas” que (según alegan) somos tan torpes procesando. Pero veamos primero de qué estamos hablando cuando hablamos de recursividad y después volveremos a la propuesta concreta de estos autores y sus implicaciones.

C&C, como tantos otros antes (incluyendo muchos generativistas), confunden la recursividad como propiedad de un sistema computacional (que es de lo que ha hablado Chomsky desde 1955 hasta hoy) con las llamadas estructuras subordinadas recursivas, esto es, cuando una oración contiene una oración, o cuando un sintagma nominal contiene un sintagma nominal. Las segundas son consecuencias rutinarias de la primera, pero en modo alguno se trata de lo mismo.

Como ha mostrado con claridad David Lobina (a quien, por cierto, C&C citan sin síntomas visibles de haberlo leído con detalle), cuando Chomsky habla de recursividad no se refiere a la existencia de “estructuras recursivas” del tipo de El hijo de la vecina de mi tía, sino que se refiere al carácter generativo de las gramáticas de las lenguas humanas.

Dado que la capacidad de la memoria humana es claramente sobrepasada por la creatividad del lenguaje humano, en el sentido de que no podemos abarcar un listado completo de todas las oraciones gramaticales (ni de todas las oraciones agramaticales) de una lengua, Chomsky propuso en los años 50 del siglo pasado, como paso fundamental en la fundación de la lingüística como ciencia cognitiva, que había que atribuir a la mente/cerebro del hablante un sistema computacional (una gramática generativa) que produce recursivamente el conjunto de oraciones gramaticales, un conjunto, en principio, indefinido o potencialmente infinito.

El uso de recursivamente en el párrafo anterior merece explicación, pues es la fuente de los errores señalados. Esta noción de recursividad (como propiedad de un sistema computacional) entronca directamente con la lógica matemática de los años 30 y 40 del siglo XX (asociada a nombres pioneros en la teoría de la computabilidad como Gödel, Post, Church o Turing) y que tuvo una influencia directa y decisiva en el Chomsky de los años 50. En los manuales de lógica matemática en los que se formó Chomsky (véase Lobina 2014 para citas concretas), la noción matemática de recursividad era cuasi sinonímica con la de computablidad, de manera que ‘recursivo’ venía a significar ‘computable’. De hecho, en el uso original de Chomsky, una gramática generativa no es sino una definición recursiva de un conjunto específico (el de las oraciones generadas por la misma). Se habla de una definición recursiva en el sentido en el que Post había mostrado con sus sistemas de producción cómo de axiomas finitos se podían generar/computar conjuntos infinitos. Y eso es precisamente lo que interesaba a Chomsky para capturar la famosa propiedad de la infinitud discreta o, como decía el viejo Humboldt, el uso infinito de medios finitos.

Una función recursiva es, pues, una función autorreferencial, en el sentido de que se define especificando sus valores en términos de valores previamente definidos por la propia función o, en otras palabras, una función que “se llama a sí misma” en el proceso de derivación.

Consideremos como ejemplo, siguiendo a Lobina, la función factorial de un número n. En la notación de la antigua EGB que tuve el honor de padecer, el factorial de n es n!, esto es, n! = n x (n-1) x (n-2), etc. Si n = 1, entonces n! = 1 (este es el caso base); si n es mayor que 1, o sea, n > 1, entonces n! = n x (n-1)!, y ahí tenemos el paso recursivo en todo su esplendor. El factorial de n invoca el factorial de n-1. Así, por ejemplo para n = 5, tenemos 5! = 5 x (4!) y para 4! tenemos que 4! = 4 x (3!) y así sucesivamente (y recursivamente) hasta llegar al caso base.

De manera relevante, nótese que aquí está el germen de la confusión, tan lesiva, entre (i) la recursividad como propiedad formal de un sistema computacional (el uso de Chomsky) y (ii) la recursividad como una instancia particular en la que una categoría dada contiene a una categoría de la misma clase (lo que solemos llamar “estructura recursiva” en lingüística). En la notación de la gramática generativa original, por ejemplo, la regla SN -> N (P + SN) contiene el símbolo SN a ambos lados de la flecha, lo que erróneamente se identifica con la recursividad como propiedad formal del sistema de reglas. Es un error comprensible, pero un error grave. Lo que Chomsky (tanto antes como después de su famoso artículo con Hauser y Fitch de 2002) postula como central y característico del lenguaje humano es la recursividad en sentido computacional, no la existencia de oraciones dentro de oraciones o la existencia de sintagmas nominales dentro de sintagmas nominales. Lo predicho es que en todas las lenguas se pueden generar un número ilimitado de expresiones gramaticales, esto es, en las que hay una relación sistemática entre sonido y sentido, esto es, que son computables.

Así, cuando lingüistas como Everett o C&C (entre otros muchos) intentan demostrar que no existe un sistema computacional recursivo detrás de la estructura de las lenguas argumentando que no existen estructuras recursivas (en una lengua en concreto o en ninguna), en realidad no están disparando a la diana correcta, al margen ahora de si aciertan o no en el blanco (esto es, al margen de que haya o no haya lenguas sin subordinación isomórfica -por usar una expresión menos confusa-, una cuestión discutible pero irrelevante ahora).

La reglas de estructura de frase y transformacionales del modelo estándar han sido reemplazadas en el modelo minimalista por la operación de ensamble (merge). Y precisamente lo que preserva claramente ensamble es la recursividad en el sentido descrito. Así, ensamble es una operación (una función) que toma dos objetos sintácticos W y U y los une formando W (W, U) que a su vez vuelve a ser el input de ensamble y resulta otro objeto sintáctico (digamos Z), según el siguiente esquema, que pretende mostrar el paralelismo con la función factorial antes comentada (E está por la función de ensamble):

X = E (X, Y), donde Y = E (Y, Z), donde Z = E(Z, W), donde W = E(W, U), etc.

Lo que observamoarbol2s, toscamente, es que la función de ensamble se aplica iteradamente de derecha a izquierda para generar el objeto X y que el objeto X se define recursivamente por la aplicación de ensamble a los objetos sintácticos inferiores, a su vez formados por ensamble. La estructura creada por ese proceso sería la que tenemos representada en la figura.

Lo que habría que demostrar para terminar de liquidar la FL minimalista es entonces que la estructura sintáctica de las lenguas humanas no tiene la configuración jerárquica de constituyentes del esquema, sino que es puramente lineal o secuencial, esto es, más o menos así: X = Y, Z, W, U, etc.

Decía al principio que el ataque a la FL minimalista de C&C era más radical que el de Everett porque no se limitan a señalar un posible contraejemplo a la supuesta universalidad de la subordinación isomórfica (la famosa lengua pirahã), sino precisamente porque usando el mismo tipo de argumentación (la supuesta ausencia de subordinación isomórfica o de “estructuras recursivas”) acaban planteando que la sintaxis de las lenguas es secuencial, esto es, lineal. Y eso es todavía peor.

(Continuará)

Cancelación de la conferencia de la Dra. Prieto

Queridos seguidores de Zaragoza Lingüística:

Lamentamos informar tan precipitadamente de la cancelación de la conferencia de mañana martes día 24. Un desafortunado cúmulo de circunstancias hace que sea imposible mantener la fecha.

La conferencia tendrá lugar el próximo martes, día 1 de diciembre, en el mismo lugar (Aula Magna de la Facultad de Filosofía y Letras) y a la misma hora (19:30).

Os rogamos disculpéis las molestias.

¿Hay que jubilar la Gramática Universal?

noam-chomsky_6363Cuando hace unos meses la activa e influyente fundación de divulgación científica edge.org lanzó su pregunta anual para el año 2014, en esa ocasión “What scientific idea is ready for retirement?”, juro que pensé ‘menos mal que hablan de ideas y no de personas, porque seguro que alguien pondría que a Chomsky’. Hace poco descubrí que, en efecto, alguien (Benjamin Bergen) entró al trapo y propuso como una de esas ideas merecedoras de jubilación la Gramática Universal, un concepto chomskiano por excelencia.

La verdad es que no me sorprende, ya que últimamente la venerable Gramática Universal (GU en adelante) se ha convertido en una especie de punching ball para todos aquellos investigadores y comentaristas que se oponen la visión naturalista del lenguaje planteada por Chomsky en los años cincuenta del siglo pasado.

Porque, no nos engañemos, la noción de GU en la obra de Chomsky siempre se ha referido a lo mismo, esto es, a aquellos aspectos o propiedades de la facultad del lenguaje de las personas que no proceden del entorno, sino del propio organismo. Nótese que esta es una caracterización definicional, no empírica. Así, salvo que uno piense que las lenguas humanas son objetos puramente culturales (invenciones o creaciones humanas como la poesía épica o las tradiciones gastronómicas), entidades que los cerebros pueden de alguna manera captar del entorno y usar, la GU existe por definición.

La cuestión crucial era (y sigue siendo) si la estructura íntima del lenguaje humano procede de fuera, del entorno, o de dentro, del organismo. La apuesta de Chomsky fue claramente internista y lo que combatía era precisamente eso, la concepción tradicional imperante de que las lenguas son objetos culturales, códigos compartidos externos que los individuos dotados de un cerebro lo suficientemente complejo (típicamente los seres humanos) son capaces de asimilar por exposición repetida a los estímulos del entorno. Lo que Chomsky inauguró en la lingüística moderna (cierto que enlazando con una tradición racionalista anterior) es precisamente la perspectiva cognitiva (mentalista, se decía entonces) en el estudio del lenguaje y, en general, de la mente humana.

El concepto de GU (recuérdese, como etiqueta para denominar la aportación del organismo -esto es, de la evolución natural- a la construcción del lenguaje) es por tanto consustancial a una auténtica perspectiva cognitiva del lenguaje y, en ese sentido, “injubilable”.

Lo que sí es revisable es el contenido que se pueda atribuir a la GU. A medida que vamos descubriendo qué aspectos de la estructura del lenguaje humano se pueden atribuir a la interiorización de estímulos externos o a ciertos principios generales de eficiencia computacional (o a cualesquiera otros factores), el contenido de la GU se va modificando. En el caso ideal, cuando realmente podamos saltar del nivel cognitivo al nivel puramente biológico, esto es, molecular y celular (un salto probablemente comparable en dificultad al que hay entre la física ordinaria y la mecánica cuántica), la GU desaparecerá como concepto científico útil, al haber sido reducida a una ciencia más elemental.

Pero no es eso lo que ofrecen quienes últimamente aparecen en los medios negando la existencia de la GU, ni mucho menos. Lo que ofrecen típicamente es una definición a medida e inexacta de qué es (supuestamente según Chomsky) la GU y luego se dedican a mostrar evidencia contraria. Claro que es relativamente fácil criticar la noción de GU si uno la construye a medida. Así, para muchos autores (por ejemplo Bergen) la GU consistiría en que “core commonalities across languages exist because they are part of our genetic endowment”, pero ¿cómo podría un universal lingüístico (aunque fuera indiscutido) ser parte de nuestra dotación genética? Los genes no construyen sistemas de conocimiento, ni ideas, ni conceptos; lo que construyen son proteínas, células y tejidos, que, según cómo se organicen y funcionen, restringirán o condicionarán los posibles sistemas de conocimiento.

¿Cómo podría Chomsky afirmar que hay genes gramaticales o neuronas sintácticas si no se ha puesto una bata blanca en su vida?

El informado artículo de Dabrowska (What exactly is Universal Grammar, and has anyone seen it?) es otro ejemplo de lo mismo. Ya desde el inicio afirma que la GU es un concepto sospechoso porque “there is little agreement on what exactly is in it; and the empirical evidence for it is very weak”. Pero ¿cómo puede ser débil (o fuerte) la evidencia empírica de algo que nadie sabe exactamente qué contiene? La propia autora sugiere que lo que hay que revisar es la evidencia sobre “specifically linguistic innate knowledge”. Del mismo modo, Goldberg concluye en su tendencioso post que un estudio que comenta sobre la teoría del ligamiento demuestra que no existe la GU, esto es, una suerte de “innate grammatical knowledge”, como si los tipos de expresiones anafóricas que existen en las lenguas hubieran sido seleccionadas por la evolución natural como la postura erecta o el pulgar oponible.

Y aquí, por fin, hemos dado con el nudo del asunto. El enemigo número uno de los funcionalistas y cognitivistas que con tanto ahínco combaten a los generativistas y al concepto de GU es precisamente ese: el conocimiento innato específicamente lingüístico. Resalto el sintagma porque tiene su enjundia.

Nadie parece negar que haya un sesgo biológico en los seres humanos que hace posible el desarrollo del lenguaje (porque sería disparatado hacerlo) y nadie parece negar que los seres humanos desarrollen un cierto tipo de conocimiento específicamente lingüístico. Lo que repugna entonces es la posibilidad de que haya un sesgo biológico y específicamente lingüístico. Al parecer, en algún momento Chomsky debió de decir que el órgano del lenguaje sería una especie de porción autónoma del tejido cerebral cuyo desarrollo estaría además dictado por un conjunto de genes específicamente dedicados a eso. Yo nunca lo he leído en sus obras. Sí he leído que escribió, por ejemplo, que el lenguaje bien podría ser un órgano mental “as a sytem, that is; its elements might be recruited from, or used to, other functions” (Chomsky 2004: 124). Pero si Chomsky no ha defendido eso, entonces no tiene sentido que se pretenda revelar su error señalando que no existen tales genes ni tal porción de cerebro.

Es cierto que Chomsky y otros autores generativistas han afirmado o sugerido que la GU (el sesgo innato hacia el lenguaje) estaría codificada genéticamente, pero lo hacían asumiendo la creencia común en la biología de los años 60 y 70 de que lo innato es lo genético. La biología del desarrollo ha avanzado mucho desde entonces, y también la gramática generativa. De hecho, en el modelo minimalista la GU es el remanente de lo que no se puede explicar de la estructura del lenguaje como procedente del entorno (adquisición) o como consecuencia de principios más generales que los estrictamente biológicos.

Hoy sabemos que no hay genes específicos del lenguaje, pero tampoco hay genes específicos de la visión o de la memoria, lo que no significa que estos sistemas de conocimiento (órganos mentales) no estén condicionados por los genes.

Pero lo relevante ahora es que la idea de un “conocimiento específicamente lingüístico biológicamente determinado” no es la hipótesis central de la gramática generativa, ni es el contenido de la noción de GU. Y no lo es sencillamente porque no puede serlo.

Decir que hay algo, lo que sea, que es a la vez biológico y específicamente lingüístico es tan absurdo como decir que hay algo que es a la vez eléctrico y específicamente político o algo que es electromagnético y específicamente químico. De hecho, es una contradicción en los términos, puesto que si algo es “específicamente lingüístico” no pude ser a la vez biológico, o eléctrico o químico. La noción de “a biological adaptation with specific linguistic content” (por usar la definición de lo que sería según Tomasello la GU) es simplemente un hombre de paja, un constructo imposible y aberrante que erróneamente se atribuye a toda una rama de la ciencia del lenguaje para desprestigiarla.

La gramática generativa es una disciplina lingüística (cognitiva) y, como tal, no puede hacer afirmaciones sobre el genoma y sobre el tejido nervioso (para eso hay que ponerse la bata blanca). Cuando proponemos una teoría lingüística determinada construimos un modelo teórico del sistema de conocimiento que subyace a las lenguas que estudiamos. Necesariamente consideraremos los principios que formulemos (por ejemplo, digamos la binariedad endocéntrica de las proyecciones sintácticas) como principios lingüísticos, esto es, como específicamente lingüísticos. Si, por las razones que sea, acabamos concluyendo que dicho principio no procede del entorno, lo atribuiremos a la estructura del organismo (o, por elevación, a principios físicos aún más generales que la propia biología). En el momento en el que podamos explicar ese principio específicamente lingüístico en términos, por ejemplo, neurológicos, dejará de ser específicamente lingüístico, pero no dejará de condicionar la estructura de las lenguas ni le quitará la razón a quien decía que la estructura del organismo es, en parte al menos, responsable de la estructura de los sistemas de conocimiento que construye y emplea.

No es saludable ni fértil para la ciencia del lenguaje que nos enzarcemos en falsas polémicas y nos distraigamos de cultivar nuestra dimensión del estudio del lenguaje favorita, que las hay para todos los gustos.

¿Es hora de jubilar la GU? Pues sí y no. La expresión es muy antigua (se remonta al menos a los gramáticos racionalistas franceses del siglo XVII) y puede llamar a confusión, pero no deja de ser un término técnico con sentido no literal, como el átomo o la puesta de sol. Me da la sensación de que su rechazo es más ideológico que científico. El tiempo dirá.

Jackendoff is not crazy! (O sobre la fonología y la consciencia)

s200_ray.jackendoffEn un recomendable y sincero autorretrato intelectual, la lingüista Gillian Ramchand expone qué significa para ella ser una lingüista generativista. Entre las muchas cosas que opina que pueden creerse sin dejar de ser chomskiano, está el no tener por qué pensar que Jackendoff está loco. Estoy completamente de acuerdo. En contra de lo que parecen pensar otros generativistas ortodoxos, creo que Ray Jackendoff, además de ser un generativista “de tomo y lomo”, ha hecho (y está haciendo) un gran servicio a la causa de construir una auténtica ciencia cognitiva del lenguaje, que es de lo que el generativismo trata en realidad.

Por cierto, otro tanto se puede decir de Steven Pinker, por lo que no me tiembla el pulso al escribir que Jackendoff y Pinker son tan chomskianos como lo pueda ser Chomsky, pues el marco de la lingüística chomskiana sin duda trasciende al pionero genio de carne y hueso que le da nombre.

Pero no es de las miserias de la pequeña sociología de la gramática generativa de lo que quiero hablar al proclamar que Jackendoff no está loco, sino de su enigmática y atractiva hipótesis de la inconsciencia del significado (HIS, por abreviar). La excusa para ello es que recientemente llegó a mis manos el último libro de Jackendoff (A User’s Guide to Thought and Meaning, 2014) en el que recapitula de manera amena y (más) sencilla sus más de 30 años de publicaciones al respecto. De hecho, la HIS ya aparece en su imprescindible Consciousness and the Computational Mind de 1987, pero allí (o eso me pareció en su momento) estaba formulada de manera más oscura y menos convincente (o yo estaba inmaduro para entenderla).

Como su nombre indica, la HIS asume que el significado (y el pensamiento, que vienen a tener la misma naturaleza) son inconscientes, esto es, ajenos a nuestra mente consciente. Por sorprendente que esto pueda parecer, en mi opinión, lo más intrigante y original de la HIS es el papel que otorga a lo que Saussure llamaba el plano del significante, esto es, la forma fonológica de las palabras y oraciones.

En las propias palabras de Jackendoff, citadas de A User’s Guide:

“the meaning side of a sound-meaning pair is unconscious, except for producing the feeling that the attached piece of sound is meaningful” (p. 49).

Claro que que los significados estén ocultos no significa que no tengan relevantes efectos: gracias a ellos podemos identificar y categorizar objetos del mundo, podemos seguir instrucciones, realizar inferencias y emitir enunciados que otras personas parecen entender. Todas esas cosas, dice Jackendoff, dependen de “captar” significados. La paradoja es que captamos significados incluso aunque no tenemos consciencia de ellos.

La HIS tiene, pues, tres partes esenciales: (i) la ‘pronunciación’ percibida es consciente, (ii) la ‘pronunciación’ va acompañada de una sensación consciente de significatividad y (iii) va asociada a un significado inconsciente (el concepto o pensamiento que expresa).

Lo que tenemos en la cabeza son conceptos y pensamientos; cuando algunos de esos conceptos y pensamientos se pueden asociar a una forma fonológica, entonces esos conceptos o pensamientos son el significado de esa forma fonológica. Por tanto, puede haber perfectamente conceptos o pensamientos que no sean el significado de ninguna forma fonológica (aunque no podemos ser conscientes de ellos), y puede haber formas fonológicas que no tengan ningún significado (porque no se conectan a ningún concepto o pensamiento).

Lo que Jackendoff llama pensamiento (thought) es en realidad la suma de los conceptos y el sistema computacional o sintaxis que los estructura. Desde ese punto de vista, el pensamiento es lo mismo que el “lenguaje interno” del conocido modelo chomskiano (formado por el sistema conceptual-intencional más el sistema computacional), pero desconectado del sistema sensorio-motor.

Lo que habitualmente llamamos lenguaje (y que agrupamos en lenguas históricas como el español o el chino) implica necesariamente una conexión de ese “lenguaje interno” con los sistemas de externalización (los sonidos, por simplificar). La historia convencional (y bastante razonable) es que la “externalización” de ese lenguaje interno está al servicio de la comunicación. Pero Jackendoff va más allá y sugiere que la vinculación de significados a sonidos no solo mejora nuestra capacidad de comunicarnos, sino que también proporciona el medio para que la mente consciente pueda operar con las derivaciones internas que, en caso contrario, solo podrían ser inconscientes. En otras palabras, que la fonología está en la base de la consciencia y, por tanto, del llamado pensamiento racional. Puede que Jackendoff no esté loco, pero a muchos podría parecérselo. A mí me da que tiene razón e intentaré explicar por qué.

Como queda dicho, lo más sorprendente y atractivo de la hipótesis de Jackendoff es el papel que le otorga su modelo de la consciencia a la forma fonológica. Veámoslo de forma comprimida: el significado es la base de nuestro conocimiento ¡pero nuestro conocimiento es inconsciente! Solo somos conscientes de la forma fonológica de las palabras y oraciones, pero no de su significado.

Así, según Jackendoff, la antigua intuición de que pensar conscientemente es lo mismo que hablarse a uno mismo es correcta, ya que la única manera que los significados tienen de acceder a la consciencia es a través de un asidero, de una manilla (handle), típicamente, la pronunciación (esto es, la forma fonológica). Por supuesto, también podemos ser conscientes a través de imágenes visuales o de otras percepciones, pero la lógica es la misma: la estructura conceptual y espacial que subyace a todo el pensamiento (y que es la base de nuestra cognición, de nuestro conocimiento) es totalmente inconsciente e inaccesible, está oculta en el cerebro salvo por los fogonazos episódicos y transitorios que tenemos de ella cuando usamos esos asideros (formas fonológicas, imágenes visuales, sensaciones táctiles, etc.) para experimentar nuestro propio discurso interior.

Por supuesto, ello no significa que nuestros pensamientos sean exactamente las frases que oímos internamente. Recuérdese que la forma fonológica de nuestro discurso interior es solo el asidero a las estructuras cognitivas confinadas en nuestra mente inconsciente. Según Jackendoff (p. 84) cuando percibimos una forma fonológica significativa (porque alguien la pronuncia o porque resuena sola en nuestro cerebro) aún no podemos percibir directamente el significado (¡recuérdese que es inconsciente!); de lo que somos conscientes es de que tal forma fonológica es significativa, pero no del significado en sí.

O en otras palabras: cuando alguien nos dice algo y entendemos lo que significa en realidad no somos conscientes del significado, sino solo de que esos sonidos tienen significado. Esta es mi parte favorita: según Jackendoff, lo que llamamos un “pensamiento consciente” tiene en realidad tres componentes: la imagen verbal, la sensación de que es significativa y el propio significado. Pero solo los dos primeros son conscientes (o acceden a la consciencia). El tercero, el significado asociado a la pronunciación, permanece inconsciente, aunque es el que hace todo el trabajo pesado en el pensamiento interno, como por ejemplo establecer inferencias, cotejar supuestos y trazar relaciones de referencia, esto es, proporcionar una interpretación de lo que nos dicen y del mundo.

Pero que quede claro: según este modelo no todo el pensamiento humano es verbal ni, por supuesto, consciente. Casi todo el uso que hacemos en la vida del lenguaje interno, esto es, del pensamiento (incluso cuando creemos que estamos razonando) pertenece al pensamiento inconsciente, y este no necesita asideros ni, por tanto, formas fonológicas. Solo el pensamiento del que somos conscientes, esto es, el que somos capaces de experimentar, requiere de asideros fonológicos (o de otras modalidades perceptivas).

Es cierto que tendemos a pensar que la pronunciación interna que hacemos es el propio pensamiento, pero eso es una simplificación motivada precisamente por el sentimiento de significatividad, del que sí somos conscientes (frente a una cadena de sonidos aleatoria como esplofre, por ejemplo, que no produce ese sentimiento).

Otro error habitual que la HIS aclara es la confusión entre pensamiento y consciencia. Así, un ser sin lenguaje (entendido como lenguaje interno más fonología) podría pensar, y bastante bien. Lo que no podría es ser consciente de sus pensamientos. De hecho, como se decía, los seres humanos hacemos uso habitual y muy eficiente del pensamiento de manera inconsciente. La diferencia está en que nosotros, frente a los demás primates superiores, gracias precisamente al lenguaje, no solo podemos tener pensamientos más complejos (esto por obra y gracia del sistema computacional que llamamos sintaxis), sino que además podemos ser conscientes de que los tenemos (esto por obra y gracia de la conexión del sistema computacional y conceptual con la fonología, esto es, con el sistema sensoriomotor).

Lo mismo funciona para la visión. Cuando estamos pensando conscientemente “oímos” las palabras dentro de la mente (de hecho, es de esa percepción de lo que somos conscientes) y sabemos que no nos está hablando nadie porque no hay una conexión entre los estímulos auditivos procesados por el oído y la “voz” en nuestra cabeza. Cuando vemos algo, como la pantalla del ordenador, somos conscientes de la imagen visual y sabemos que está ahí delante porque existe una conexión entre la imagen visual dentro de nuestro cerebro y los estímulos recibidos en la retina. Cuando no existe esa conexión, es que estamos imaginando una pantalla (o que tenemos una alucinación, lo que se explicaría precisamente como un mal funcionamiento de la detección de la conexión entre la imagen visual en el cerebro y los estímulos visuales procedentes de la retina).

Hemos visto que según la HIS de Jackendoff la forma fonológica es el asidero que posibilita la consciencia. Nótese entonces que en realidad el lenguaje no sería un requisito para la consciencia, puesto que también las imágenes visuales y los estímulos táctiles y olfativos pueden funcionar como asideros de conceptos internos inconscientes. De hecho, no tenemos razones para pensar que seamos los únicos organismos con algún tipo de consciencia de sí mismos. Cosa distinta es de qué se puede ser consciente.

El sistema computacional humano (que también es inconsciente) sí que parece marcar una diferencia con respecto al de otras especies en lo que respecta a la complejidad del pensamiento (tanto inconsciente como consciente). Como han puesto de manifiesto desde finales de los años cincuenta del siglo XX Chomsky y sus seguidores, el sistema computacional, con su capacidad de producir recursivamente derivaciones ilimitadas y capaces de combinar entre sí todo tipo de elementos conceptuales, produce una estructura conceptual (ahora usando la terminología típica de Jackendoff) que nos singulariza cognitivamente del resto de organismos. Todo lo que sabemos lo sabemos porque lo ha construido el cerebro, y la herramienta que usa el nuestro es precisamente la sintaxis. Por decirlo simplificadamente: aunque no tuviéramos consciencia, también seríamos más listos, aunque no lo sabríamos.

Por tanto, esa compleja estructura conceptual producida por la sintaxis no implica ni presupone necesariamente la consciencia. De hecho, si Jackendoff está en lo cierto y el pensamiento (el significado) es realmente inconsciente, la consciencia no es una consecuencia del lenguaje interno ni de la sofisticación de nuestra estructura conceptual, sino que es consecuencia de la conexión que el lenguaje interno tiene con cadenas arbitrarias de fonemas que sí pueden acceder a la consciencia. No podemos representar con una imagen visual conceptos como la desesperación, los celos, la entropía o el pasado, pero sí podemos crearlos con el lenguaje interno y hacerlos presentes en nuestra experiencia consciente a través de sonidos asociados a ellos, o de grafías, como acabo de hacer.

Pero aún hay más. Los seres humanos no sólo somos conscientes de nosotros mismos sino que, gracias al lenguaje, también somos conscientes de nuestros pensamientos, esto es, de que los tenemos, aunque en sí mismos sean inconscientes. Y ahí, según Jackendoff, está la base del atributo más notorio y famoso de nuestra especie: el pensamiento racional, esto es, el pensamiento consciente.

Según Jackendoff la investigación en psicología cognitiva reciente distingue entre dos modos de razonamiento, el sistema 1 y el sistema 2. El sistema 1 es rápido, automático e inconsciente (sería lo que comúnmente llamamos pensamiento intuitivo o inconsciente), mientras que el sistema 2 es lento, costoso, lineal y consciente (que es lo que normalmente identificamos con el pensamiento racional). Buena parte de la tradición filosófica ha insistido en que el segundo es específicamente humano (Homo sapiens) y se ha relacionado precisamente con el lenguaje. El modelo de Jackendoff no niega esto, pero lo explica mucho más coherentemente. Lo que propone nuestro autor es que en realidad el sistema 2 no es distinto del sistema 1, sino que, como él dice, “it rides on top of System 1” (p. 214). El sistema 2 sería pensamiento que está vinculado a un correlato cognitivo de la consciencia, esto es, a la forma fonológica. Dado que la forma fonológica es lineal, dice Jackendoff, el pensamiento consciente es lineal; dado que la pronunciación es lenta (en comparación con la rapidez del pensamiento), el pensamiento consciente es lento. Y dado que el pensamiento es inconsciente, solo podemos tener un acceso consciente a él si tiene un asidero consciente, la forma fonológica. Como únicamente los humanos tienen lenguaje, concluye Jackendoff, únicamente los humanos tienen pensamiento racional, por lo que, entonces, el sistema 2 equivale básicamente al sistema 1 más el lenguaje.

Pero en este punto hay que ser muy cuidadosos con la terminología. Habría más bien que decir que el sistema 2 equivale al sistema 1 más la externalización del lenguaje. Sugiere Jackendoff que si un chimpancé tuviera lenguaje no sería como un humano, puesto que el sistema 1 humano también es muy diferente del sistema 1 del chimpancé. Jackendoff está usando ‘lenguaje’ como equivalente a una dimensión fonológica, pero el lenguaje es mucho más que eso, puesto que es también el lenguaje (a través de la sintaxis) el que precisamente hace diferente nuestro sistema 1 del resto de los organismos capaces de pensamiento, como el chimpancé.

En todo caso, lo que le añade el lenguaje al sistema 1 humano para convertirlo en un sistema 2 (también humano) no es complejidad computacional, sino acceso a la consciencia. La posibilidad que brinda el lenguaje de referirnos a los pensamientos y manipularlos a través de sus correlatos conscientes (las formas fonológicas) es lo que nos hace capaces de obtener conclusiones, esto es, conocimiento que no podríamos obtener solo con el pensamiento inconsciente.

Lo maravilloso es que ese conocimiento sigue siendo inconsciente, aunque nos haga humanos.

Gödel, Hale & Keyser y la incompletitud de la sintaxis

godel-by-david-greyEn 1930 el gran matemático alemán David Hilbert presentó ante lo más granado de su disciplina lo que precisamente se acabó llamando el programa de Hilbert para las matemáticas. La clave esencial de dicho programa se basaba en dos principios: que toda la matemática se sigue de un sistema finito de axiomas (escogidos correctamente) y que tal sistema axiomático se puede probar consistente. En otras palabras, lo que planteaba Hilbert en su programa, también llamado formalista, era que cualquier verdad de una teoría matemática debía ser demostrable a partir de los axiomas mediante razonamientos cuya validez fuera verificable mecánicamente en una cantidad finita de pasos, esto es, algorítmicamente. El lema que resume esta actitud (y que Hilbert hizo constar en su epitafio) era “tenemos que saber y sabremos”.

El programa de Hilbert se proponía en contra de los llamados “intuicionistas” o “constructivistas”, quienes rechazaban la existencia, entre otras entidades matemáticas, del infinito de facto usado por Cantor, precisamente porque negaban la existencia de números que no se pudieran generar algorítmicamente (esto es, mecánicamente por medio de un número finito de pasos). La maniobra de Hilbert era clara: al considerar la propia demostración como algorítmica introducía de nuevo el infinito de Cantor salvando las reticencias de los intuicionistas, que, en efecto, se rindieron oficialmente en aquel congreso en Königsberg de 1930 (aunque la controversia de fondo, si las entidades matemáticas se crean o se descubren, esto es, si tienen existencia independiente, sigue sin resolver).

Mas, en ese mismo congreso, un joven matemático austrohúngaro, recién doctorado y aún desconocido, levantó la mano y afirmó que en realidad había demostrado un teorema que probaba que si las demostraciones habían de ser algorítmicas, entonces era imposible dar axiomas para la aritmética que permitieran demostrar todas las verdades de la teoría. Más concretamente, el primer teorema de incompletitud de Kurt Gödel, el propietario de la mano que se alzó, establece que para todo sistema axiomático recursivo auto-consistente (por ejemplo uno que pueda describir la aritmética de los números naturales) siempre existen proposiciones verdaderas que no pueden demostrarse a partir de los axiomas. El hecho de que Gödel pudiera demostrar (e incluso convencer a Hilbert) que siempre habrá una afirmación verdadera pero indemostrable a partir de cualesquiera axiomas es lo que realmente tiene interés para un lingüista teórico (aparte, por supuesto, de que se ha considerado una de las mayores proezas intelectuales del siglo pasado). Hemos visto que Hilbert convenció a los intuicionistas exigiendo que la demostración de los teoremas siempre fuera algorítmica, y eso es lo que hizo Gödel para convencer a Hilbert: una demostración algorítmica de su célebre teorema de incompletitud, esto es, una demostración que cumplía escrupulosamente el programa de Hilbert.

Pero veamos qué tiene que ver todo esto con la teoría lingüística. Para ello debo aclarar primero que no soy matemático y no he estudiado personalmente los trabajos de Hilbert y Gödel (ni creo que pudiera entenderlos), de manera que este breve relato se basa en obras de divulgación. Mis noticias sobre Gödel se debían esencialmente a los libros imprescindibles de Hofstadter y, sobre todo, de Penrose. Sin embargo, el que sigo ahora es el delicioso ensayo sobre los teoremas de Gödel del matemático y divulgador Gustavo Ernesto Piñeiro. Piñeiro explica que en lógica matemática se emplea la “dualidad semántico-sintáctica”, de manera que un concepto relativo a una secuencia de símbolos es “sintáctico” si únicamente se refiere a los símbolos sin que tenga relevancia su significado (por ejemplo si decimos que en ktlvd hay cinco letras o que la primera es una k), mientras que es “semántico” si depende del significado que la secuencia transmite (por ejemplo si nos preguntamos a qué se refiere o si es verdadera). En este contexto podría decirse que en lógica matemática lo “sintáctico” es lo algorítmico (computable) y lo “semántico” lo vago e impreciso (no computable). Como señala Piñeiro:

“La premisa fundamental del programa de Hilbert consistía en pedir que la validez de los aspectos semánticos de las matemáticas fuera controlada mediante métodos sintácticos. La sintaxis, clara e indubitable, debía poner coto a la semántica, propensa a paradojas” (p. 98).

A estas alturas mis amigos lingüistas (especialmente los generativistas) ya estarán salivando copiosamente. En efecto, es muy tentador relacionar este episodio crucial de la lógica matemática y de la teoría de la computabilidad con la tensión entre el peso de la semántica y la sintaxis en la lingüística moderna. De hecho (y no me consta que se haya hecho antes, aunque nunca se sabe), es muy tentador equiparar en cierto modo el programa de Hilbert para las matemáticas con lo que podríamos llamar el programa de Chomsky para la lingüística. La gramática generativa podría, en efecto, caracterizarse como un intento de reducir la semántica a la sintaxis, en el sentido preciso de que en el modelo chomskyano la sintaxis no está al servicio de transmitir el significado o de ordenar los símbolos, tal y como se suele entender habitualmente, sino que la sintaxis en realidad crea el significado. La sintaxis construye significados que simplemente no existirían sin ella y, lo que es fundamental, lo hace mecánicamente, algorítmicamente, de manera inambigua.

En mis clases de lingüística, para (intentar) persuadir a mis alumnos del interés de embarcarse en una aproximación formal a la sintaxis (a lo que naturalmente suelen ser reacios) suelo sugerirles (una estrategia que leí en algún sitio que no recuerdo) que consideren la diferencia entre pedirle a alguien que haga una determinada tarea y programar un ordenador para que la efectúe. En el primer caso nos basta con enunciar la tarea a realizar, pues asumimos que nuestro amigo pondrá de su parte los mecanismos y recursos necesarios para llevarla a cabo. Simplemente, la enunciamos “semánticamente” (y allá nuestro amigo con los detalles). Sin embargo, un ordenador no tiene sentido común ni iniciativa: hay que pensar detalladamente el proceso de desarrollo de la tarea, y nos obligamos a hacer explícitos e inambiguos todos y cada uno de los pasos a seguir (y al menor descuido o error el programa se cuelga). Construir una teoría sintáctica es lo más parecido que podemos hacer a convertir en procesos algorítmicos el aparentemente milagroso proceso de construir y transmitir significados empleando el lenguaje.

Pero no nos olvidemos de Gödel (y ahora serán mis amigos cognitivistas, que también los tengo, los que se frotarán las manos). Al fin y al cabo, el teorema de incompletitud precisamente demostraba que el “método sintáctico” es necesariamente incompleto: siempre habrá enunciados verdaderos no demostrables a partir de los axiomas. En lógica matemática parece que tenemos que elegir: o bien tenemos métodos de razonamiento seguros y confiables (“sintácticos”), pero no podemos probar todas las verdades, o bien podemos conocer todas las verdades (empleando métodos “semánticos”), pero sin la certeza de que nuestros razonamientos sean correctos. El problema es complejo y enlaza con la controversia sobre la naturaleza de la consciencia humana y el debate sobre la inteligencia artificial fuerte. Para muchos autores (entre ellos Penrose) el hecho de que podamos tener certeza de verdades matemáticas sin una demostración algorítmica posible es precisamente una prueba de la diferencia cualitativa entre la mente humana y un ordenador. Pero, como señala Piñeiro, entonces resulta que lo que Gödel mostró es que no podemos estar seguros de ser superiores cognitivamente a un ordenador, puesto que “jamás podremos tener la certeza de que nuestros razonamientos semánticos son correctos” (p. 161).

Si nos centramos en el lenguaje, podría parecer que Gödel vendría a dar la razón a quienes lo abordan como un fenómeno esencialmente semántico (no computable, analógico, podríamos decir), pero la propia historia de la gramática generativa es una muestra de que probablemente el futuro pueda depararnos sorpresas. Ante la conclusión de que la mente humana no es plenamente algorítmica, Piñeiro concluye con un interrogante de crucial importancia para nosotros:

“¿Existe un nivel intermedio entre los razonamientos puramente sintácticos y los razonamientos libremente semánticos que permita superar la incompletitud de los teoremas de Gödel asegurando a la vez la consistencia? ¿Existe realmente una diferencia tan tajante entre ‘sintáctico’ y ‘semántico’ o lo que llamamos conceptos semánticos no son más que conceptos sintácticos más sofisticados (en los que se trabaja con grupos de símbolos en lugar de con símbolos individuales)?” (p. 162)

No creo que haya ningún lingüista generativista que al leer esto, aunque hable en realidad de la aritmética, haya podido evitar pensar en la controversia entre lexicismo y anti-lexicismo de los últimos decenios. La tendencia inaugurada en buena medida por los trabajos de Hale y Keyser sobre la “sintaxis léxica” en los años 90 del siglo XX (por mucho que se inspiren en propuestas anteriores) se ha visto continuada por la llamada Morfología Distribuida de Halle y Marantz, la aproximación “exoesquelética” de Borer o la nanosintaxis (atribuida a Starke y desarrollada intensamente por Antonio Fábregas). Lo que todos estos modelos tienen en común es precisamente que son instancias avanzadas del programa chomskyano de ir reduciendo el ámbito no computable, vago y fluctuante de la semántica al ámbito computable, algorítmico y no ambiguo de la sintaxis.

La descomposición del significado léxico en términos de las unidades y principios de la sintaxis oracional es obviamente una instancia de esa posibilidad mencionada en la cita anterior de Piñeiro de intentar evitar la incompletitud por medio de la descomposición de los “símbolos semánticos” en estructuras computables (esto es, sintácticas). Consideremos, por ejemplo, el artículo seminal de Hale y Keyser de 1993 en el que demostraban (¡aunque no en el sentido matemático!) que la estructura argumental de los predicados verbales era en realidad una estructura sintáctica ordinaria. Lo relevante ahora es que gracias a esa hipótesis se puede predecir mucho más adecuadamente por qué existen ciertos verbos y no otros, y por qué significan lo que significan y no otra cosa (así, en español podemos decir que embotellamos el vino, en el sentido de que metimos el vino en botellas, pero no que vinamos las botellas).

De hecho, Hale y Keyser se hacen una relevante pregunta semántica (¿por qué hay tan pocos papeles semánticos?) y ofrecen una interesante respuesta sintáctica (porque los papeles semánticos son en realidad relaciones sintácticas). En efecto, incluso los estudios más detallados al respecto suelen convenir en que las lenguas emplean un número muy reducido de papeles semánticos (del tipo de agente, experimentador, tema, locación, etc.), un número que suele oscilar entre los dos de las teorías más restrictivas hasta la media docena de las más prolijas. La mayoría de las aproximaciones disponibles en la época solían proponer una lista jerárquicamente ordenada de papeles semánticos y no se hacían preguntas tan relevantes como las siguientes: ¿por qué hay tan pocos papeles semánticos? ¿por qué tienden a ser los mismos en todas las lenguas? ¿por qué están ordenados jerárquicamente (en el sentido de que no sucede que un verbo tenga un paciente como sujeto y un agente como objeto directo)? ¿por qué los mismos papeles semánticos tienden a aparecer en las mismas posiciones (los agentes como sujetos, los temas como objetos, etc.)? Dado que no parece que sea un problema que la mente humana pueda aprender una docena o dos de papeles semánticos, Hale y Keyser plantean que quizá las respuestas tengan que ver con la sintaxis, y no con la semántica. Así, proponen la hipótesis de que los papeles semánticos se siguen en realidad de configuraciones sintácticas. Lo relevante en el contexto de nuestra discusión es que el carácter restrictivo y predecible de los papeles semánticos (que son parte del “significado” de los predicados) sería en realidad consecuencia de la naturaleza no ambigua y limitada de las relaciones sintácticas. Así, del cóctel formado por, de un lado, la asimetría de las proyecciones binarias y endocéntricas (en las que, por ejemplo, la relación entre núcleo y complemento no es reversible) y, de otro, el hecho (misterioso en sí mismo) de que hay un número muy limitado de categorías gramaticales, Hale y Keyser derivan una respuesta específica y concreta a las preguntas formuladas, con la respuesta ya adelantada de que en realidad los papeles semánticos no son primitivos de la teoría, sino etiquetas descriptivas de relaciones sintácticas finitas y restringidas.

Por su parte, otro de los desarrollos recientes de la gramática generativa, la aproximación cartográfica, es de nuevo un sólido impulso en la misma dirección de intentar reducir la vaguedad semántica a configuraciones sintácticas restrictas y computables (esto es, algorítmicas).

Pero, por supuesto, todo esto no implica que Gödel esté derrotado, ni mucho menos. Es relativamente fácil imaginar que siempre habrá un momento en el que un tipo verdaderamente ‘atómico’ de significado haya de ser postulado como simplemente “conocido” por la mente, un punto pues en el que ‘un axioma verdadero’ no pueda ser ‘demostrado algorítmicamente’, tal y como requeriría el ‘programa de Hilbert-Chomsky’. Pero, al igual que los matemáticos no han dejado de abordar la demostración de todos los teoremas postulados, podría decirse que los lingüistas formalistas estamos obligados a desarrollar hasta el extremo el programa sintáctico iniciado en los años cincuenta del siglo XX y considerarlo un objetivo científicamente lícito e irrenunciable.

Es posible que haya una ‘semántica irreductible’, pero no deberíamos olvidar que, al fin y al cabo, el teorema que lo demuestra sí tenía una demostración ‘sintáctica’, así que nunca se sabe.

¿Dos lenguas, dos mentes? Horrorizando a Schrödinger

Uschrodinger600no de los físicos teóricos más relevantes del siglo XX, Erwin Schrödinger, consideraba que era “obvio” que únicamente existe una consciencia humana y que la sensación que todas las personas tenemos de tener una mente propia e individual es simplemente eso, una sensación.

Admito desde ya que comparar la capacidad de comprensión del universo de Schrödinger con la mía es como comparar un transatlántico con una barca de remos, pero aún así me atrevería a cuestionar la visión del padre de la ecuación de ondas de la mecánica cuántica (por la que recibió el premio Nobel en 1933) y aferrarme a la idea, quizá patosa, de que no existe una mente humana universal, sino que cada uno de nosotros tenemos nuestra propia mente y nuestra propia consciencia del yo. Pero eso sí, solo una.

No es difícil imaginar al genio vienés revolviéndose en su tumba si pudiera leer el artículo recién publicado en Psychological Science (2015) titulado “Dos lenguas, dos mentes”, pues, de estar en lo cierto, se implicaría una proliferación extra de las mentes por encima de las personas.

Los autores del artículo, liderados por Panos Athanasopoulos (Universidad de Lancaster), se hacen eco de la célebre afirmación de Carlomagno de que hablar otra lengua es como tener otra alma y la actualizan dando a entender que hablar dos lenguas es como tener dos mentes. La frase es buena como titular (aunque no tan sugerente como la formulación de Carlomagno), pero no deja de implicar una devaluación bastante drástica de lo que habitualmente entendemos por mente y (sospecho) una visión algo simplista de las relaciones entre lenguaje y cognición.

En todo caso, la lógica de los experimentos en que se basa tal conclusión es relativamente sencilla. Se parte del hecho de que los hablantes monolingües del alemán tienden a ser más proclives a identificar un vídeo en el que alguien camina hacia un coche (pero en el que no se muestra si llega hasta él) con un vídeo en el que alguien entra en una casa, que con un vídeo en el que alguien se dirige a un lejanísimo edificio sin alcanzarlo. Ello implicaría que, ante la duda, tienden a fijarse más en el fin del evento (entrar en la casa) que en el desarrollo del mismo (caminar hacia el edificio lejano) y por ello categorizan con más frecuencia el vídeo incompleto del coche como del primer tipo. La situación inversa se produce en los hablantes monolingües de inglés, que tienden a identificar el vídeo del coche con el del lejano edificio (centrándose, pues, en el desarrollo inacabado del evento). Según los autores ello sería así porque en inglés se codifica gramaticalmente el aspecto progresivo (por ejemplo la forma en –ing del verbo) y en alemán no. Según sus datos, solo un 37% de hablantes de inglés identificó el evento del coche con el de la casa, frente a un 62% de los alemanes. Es interesante, no lo niego, pero no añade nada a la ya extendida pretensión (infundada en mi opinión) de que una mente “inglesa” pueda ser distinta de una mente “alemana”.

Lo delicado viene con los sujetos bilingües. Si una mente alemana es distinta de una mente inglesa (asumámoslo de momento) ¿cómo será la mente de un hablante bilingüe alemán-inglés? ¿O es que tendrá dos mentes?

A estas alturas está claro que ya no sabemos muy bien a qué se refiere la palabra mente, pero sigamos. Según un primer experimento descrito en el artículo, los bilingües tendían a comportarse como los monolingües, aunque con diferencias menos acusadas. Así, cuando se hacía el experimento en un contexto alemán (porque se les dan las instrucciones en alemán y tienen que responder en alemán) tienden a preferir más frecuentemente el vídeo de la casa que el del edificio como semejante al del coche, mientras que cuando actúan en un contexto inglés los mismos sujetos tienden a preferir el vídeo del edificio (que marca el evento en progreso, no completado). Aunque los autores no lo señalan, es de suponer que ese comportamiento más moderado de los bilingües es precisamente efecto de la interferencia entre las lenguas, de manera que cuando hablan alemán son menos “alemanes” que los monolingües de alemán y cuando hablan inglés son menos “ingleses” que los monolingües de inglés.

El segundo experimento es más interesante, pero mucho menos concluyente estadísticamente hablando, y mucho más farragoso en el diseño. En él se pretende “entorpecer la categorización verbalmente mediada” (¿pero no era eso lo que se quería probar?) de los hablantes bilingües haciéndoles repetir en voz alta una secuencia de números mientras realizan la misma tarea del experimento anterior (ver los tres vídeos y decidir a cuál se parece más el del coche). No se nos debería escapar que repetir números en voz alta mientras se ve un vídeo no deja de ser una tarea lingüística, pero en fin, no soy experto en eso. Según los autores, esa tarea de interferencia inhibe en los sujetos la lengua en la que se supone que están pensando (ya que las tareas no son verbales sino de visionado de vídeos) y -lo que se supone es el mayor descubrimiento-hace que entonces elijan las opciones esperables según la otra lengua. Así, cuando están haciendo el experimento en “contexto alemán” (porque les dan las instrucciones en alemán y tienen que responder en esa lengua a qué vídeo se parece más el del coche) y a la vez se les “interfiere” el alemán haciéndoles repetir números -en alemán- mientras ven los vídeos (!), resulta que tienden a elegir menos el vídeo de la casa (el favorito de los “alemanes”) y más el del edificio (el favorito de los “ingleses”). A mitad de experimento se hace un cambio, de manera que tienen que decir los números en inglés (para perturbar el acceso a esa lengua, supuestamente) y entonces resulta que tienden a elegir más como los alemanes. La explicación que ofrecen los autores es que cuando la tarea de distracción verbal interrumpe el acceso a la lengua del contexto del experimento, entonces la otra lengua, por así decirlo, toma el mando.

No voy a entrar en la cuestión de cómo se puede (si se puede) interferir el acceso al lenguaje o, como dicen los autores, a la “verbally mediated categorization”, ni voy a insistir en la aparente contradicción de asumir que se pueda “distraer” la lengua operativa o activa y asumir que a la vez la otra lengua, supuestamente inactiva, venga a suplir a la “interrumpida”, puesto que entonces no queda claro que se haya interferido realmente la categorización verbalmente mediatizada, sea eso lo que sea. Nótese que en tal caso, la misma tarea de distracción aplicada a los monolingües implicaría que no se usa ninguna lengua para hacer el test (ya que no tienen otra que la supla), lo que precisamente demuestra que la influencia de la lengua en la categorización es modesta (salvo que asumamos que entonces no hay categorización de ningún tipo, cosa absurda, ya que en ese caso los sujetos monlingües no entran en bucle, sino que identifican los vídeos, aunque usando otra cosa que no sea el lenguaje, según la lógica de los autores).

Lo que en realidad el artículo pretende haber demostrado es, pues, que los hablantes bilingües inglés-alemán tienen una categorización flexible del mundo en función de qué lengua es dominante en una determinada tarea de identificación de eventos de movimiento. Lo que llama la atención es lo de la categorización flexible. Sus conclusiones son las siguientes:

These findings show that language effects on cognition are context-bound and transient, revealing unprecedented levels of malleability in human cognition.

Pero si los efectos sobre la cognición de las lenguas que se hablan son dependientes del contexto y transitorios, creo que entonces lo que realmente se pone de manifiesto en este estudio (y en otros análogos) es que los efectos de las lenguas concretas que uno habla en la cognición son realmente débiles o superficiales, lo que, por supuesto, no permitiría hablar de una maleabilidad sin precedentes en la cognición humana. De admitir esa afirmación deberíamos entonces reconocer que el término cognición se emplea en un sentido diferente cuando se usa en el texto citado o cuando lo usamos para referirnos, por ejemplo, a la cognición humana frente a, qué se yo, la cognición felina o aviar. Quizá un problema subyacente es que se identifica la cognición con la categorización, pero eso ya es un asunto excesivamente complicado para esta ocasión y, en todo caso, lejos de mis competencias.

En cualquier caso, a la sugerencia de que los bilingües tienen dos mentes cabe oponer lo que la investigación de los últimos años en bilingüismo ha puesto de manifiesto y que resumen con detalle y rigor Judith Kroll y otros en un reciente estado de la cuestión que afirma lo siguiente:

Contrary to the view that bilingualism complicates the language system, this new research demonstrates that all of the languages that are known and used become part of the same language system.

Los bilingües, en contra de lo que se creía en el pasado, no funcionan como dos monolingües, sino que sus lenguas, incluso cuando hay cierta asimetría en su dominio, se interfieren mutuamente y, de hecho, tienden a confluir en un solo sistema de conocimiento. Incluso se ha observado (véase el ensayo de Kroll et al. para referencias) que el tejido cerebral empleado en el almacenamiento y procesamiento de las dos lenguas es esencialmente el mismo.

El cerebro bilingüe es diferente del monolingüe, pero no precisamente porque se desdoble en dos sistemas de conocimiento, sino porque desarrolla un sistema de conocimiento más complejo cuyo manejo adecuado acrecienta ciertas capacidades, exactamente igual que levantar pesas a diario nos hace crecer los bíceps.

El descubrimiento más notorio de los últimos decenios en investigación del bilingüismo es precisamente que las dos (o más) lenguas siempre están activas y se interfieren mutuamente. Da lo mismo si la L1 es muy dominante sobre la L2, si son muy diferentes en su morfología, en su fonología o en su sintaxis, si lo son ortográficamente, si una es signada y la otra oral, o incluso si una de ellas apenas se usa. El conocimiento de una segunda lengua afecta continua e incesantemente al uso de la primera y, por supuesto, el de la primera, con mucha más robustez, al uso de la segunda. Los posibles beneficios cognitivos del bilingüismo derivan precisamente de la necesidad extra del bilingüe de inhibir a una de las lenguas para usar la otra, lo que revierte en una aparente mejora en la capacidad de resolución de conflictos cognitivos (tanto en el uso del lenguaje como en otros ámbitos) e incluso aumenta la protección contra ciertos tipos de degeneración cognitiva, incluido un retraso de los síntomas de la enfermedad de Alzheimer.

El hecho de que las dos lenguas siempre estén activas y se interfieran se explica precisamente porque forman parte de un único sistema de conocimiento (el lenguaje), lo que obviamente no apoya la visión de “dos lenguas, dos mentes”, sino que, al contrario, pone de manifiesto que si hay una parte del lenguaje (y sería muy extraño que no la hubiera) que vertebra nuestra mente y nuestra consciencia, esa parte coincide esencialmente con lo que las lenguas tienen en común.

Para que el lector termine de convencerse de lo frívolo (en el uso de la palabra) que puede llegar a ser afirmar que un bilingüe tiene dos mentes, merece la pena que consideremos un ejemplo de lo contrario: una persona con una sola lengua y dos mentes distintas.

En efecto, a diferencia de lo que sucede con los sujetos bilingües, sí existen personas sobre las que se ha discutido seriamente si tienen dos mentes (esto es, si son más de una persona), y no me refiero a los cinematográficos casos de trastornos de identidad disociativa, sino a los casos de personas con sección del cuerpo calloso que une los dos hemisferios del cerebro.

Quizá el más célebre es P.S., un chaval con cerebro escindido estudiado por Gazzaniga y colaboradores (LeDoux, Wilson y Gazzaniga 1977). Aunque es un tema muy controvertido, se ha llegado a sugerir que cada uno de los hemisferios de P.S. era autoconsciente y tenía su propia mente. Lo interesante (en lo que nos afecta ahora) es que después de la operación solo el hemisferio izquierdo podría hablar, pero ambos comprendían el habla y también el hemisferio derecho empezó poder comunicarse juntando letras del Scrabble para formar palabras usando la mano izquierda. Parece que P.S. tenía, a diferencia de los pacientes examinados hasta ese momento, parte sustancial del lenguaje en el hemisferio derecho (a pesar de que no era zurdo). Lo apasionante es que el hemisferio derecho mostró tener sentimientos, saber qué día era mañana, qué profesión le gustaría ejercer (distinta de lo que declaraba el hemisferio izquierdo) y, en general, todos los atributos de una mente humana. Como señalan en su artículo clásico LeDoux, Wilson y Gazzaniga:

Each hemisphere in P.S. has a sense of the self, and each possesses its own system for subjectively evaluating current events, planning for future events, setting response priorities, and generating personal responses.

Pero lo más relevante es que el hecho de que solo en el caso de P.S. se haya detectado esa independencia cognitiva del hemisferio derecho, mientras que los hemisferios derechos de otros pacientes no revelan esa capacidad de autoconciencia (con la posible excepción de otra paciente llamada Vicki), sugiere a los autores que

the presence of a rich linguistic system is a reliable correlate, and perhaps a necessary prerequisite, to some of the richer aspects of mental life.

Resulta pues que, a la postre, sí que parece tener sentido la antigua intuición de que el lenguaje está detrás de la consciencia y de la naturaleza de la mente humana. Pero, contrariamente a lo sugerido por Athanasopoulos y colaboradores, lo que forma la trama de nuestra mente humana no son los aspectos superficiales, externalizables, del lenguaje (esto es, los aspectos sujetos a cambio histórico y por tanto a variación), sino aquellos que son comunes a todas las lenguas incluyendo, claro está, las diversas lenguas en la (única) mente de un bilingüe. Estoy convencido de que a Schrödinger le habría seducido la idea.

El Test del Morfólogo: JOSÉ FRANCISCO VAL ÁLVARO

El Test del Morfólogo: JOSÉ FRANCISCO VAL ÁLVARO.