Archivo del autor: José-Luis Mendívil

Revista Española de Lingüística 50/1 (2020)

morforetem

cover_issue_120_es_ES

Revista Española de Lingüística

Vol. 50 Núm. 1 (2020)

ACCESO DIRECTO PDF: http://revista.sel.edu.es/index.php/revista/issue/view/120

Este número incluye artículos de notable interés para los seguidores de MORFORETEM. Destacamos:

El masculino inclusivo en español

José Luis Mendívil Giró

35-64

Las paradojas excluyentes del «lenguaje inclusivo»: Sobre el uso planificado del morfema flexivo

José María Gil

65-84

Ver la entrada original

PÓSTER. El género nominal en español: una nueva tipología

morforetem

Como viene siendo habitual en nuestras reuniones anuales, en el pasado Encuentro de Morfólogos (celebrado telemáticamente en la Universidad Autónoma de Madrid los días 29 y 30 de octubre de 2020) se presentaron diversos pósteres que mostraban trabajos en curso de jóvenes (y no tan jóvenes) investigadores.

Dado que se trata de trabajos en vías de realización –sometidos, por ello, a posibles críticas, sugerencias y comentarios de ayuda–, hemos considerado interesante dedicar un post individual para cada uno de los pósteres presentados.

¡Serán muy bienvenidos los comentarios de los lectores de este blog!

Empezamos con…

El género nominal en español: una nueva tipología

José Luis Mendívil Giró (Universidad de Zaragoza)

El póster presenta una nueva tipología, más simple y explicativa, del género de los nombres de persona en español.

El criterio esencial es la relación entre (i) la denotación de sexo, (ii) la asignación de género inherente y (iii) la…

Ver la entrada original 281 palabras más

La gramática generativa del sistema inmunitario

250px-SARS-CoV-2_without_background

En tiempos de confinamiento por culpa del virus SARS-CoV-2 es inevitable que dediquemos algunos pensamientos a nuestro sistema inmunitario. Y, ya puestos, también podríamos usar nuestros pensamientos sobre el sistema inmunitario (y su sorprendente eficacia en la lucha contra los patógenos) para comprender un poco mejor la igualmente maravillosa eficacia con la que nuestro cerebro desarrolla la competencia lingüística a partir de los datos del entorno. Son asuntos muy diferentes pero están sutilmente relacionados.

La idea de comparar el sistema inmunitario con la gramática generativa no es original. La comparación la estableció expresamente el inmunólogo Niels K. Jerne, quien tituló su discurso de aceptación del premio Nobel de medicina como The generative grammar of the inmune system (lo que revela que el título de esta entrada tampoco es original).

La analogía que plantea Jerne es más bien metafórica: se basa en la noción chomskiana de una gramática generativa entendida como un sistema de conocimiento que permite al hablante generar oraciones adecuadas a situaciones nuevas y entender oraciones que nunca había oído antes. Como señala Jerne, el sistema inmunológico también es generativo porque es capaz de encontrar una respuesta adecuada para cualquier antígeno con el que se enfrente, aunque nunca antes se haya encontrado con él.

Lo relevante, y misterioso, es cómo suceden realmente esos procesos: cómo el sistema inmunitario aprende a crear la molécula adecuada (el anticuerpo) para cualquier antígeno (estímulo) al que se enfrente, y cómo el cerebro humano aprende un sistema de conocimiento generativo como el lenguaje a partir de los estímulos lingüísticos del entorno.

En ambos casos, y de forma independiente en cada ámbito, la ciencia nos ha mostrado que la palabra “aprende” probablemente no es la adecuada, al menos en el sentido en el que la empleamos habitualmente.

De hecho, la relación entre el sistema inmunológico y la facultad del lenguaje que voy a considerar no es puramente metafórica. Se basa en un paralelismo señalado por Massimo Piattelli-Palmarini (en un notable artículo de 1989) en relación con dos modelos básicos de evolución y desarrollo biológicos: el modelo “instructivo” y el modelo “selectivo”.

La idea esencial de un modelo instructivo es que los estímulos externos confieren su carácter al sistema que los recibe, esto es, de alguna manera el sistema extrae su estructura del estímulo externo. En un modelo selectivo, por el contrario, los estímulos igualmente actúan sobre un sistema, pero este ya está estructurado, de manera que el sistema detecta los estímulos del entorno y selecciona los relevantes. La diferencia entre ambos modelos se puede precisar más aún si acudimos a las definiciones del biólogo molecular Antoine Danchin (citado por Piatelli-Palmarini): las teorías instructivas postulan la existencia de un agente externo causal, exterior al sistema, que dirige su evolución, mientras que en las teorías selectivas son las interacciones contingentes entre el estímulo y el sistema las que lo hacen evolucionar.

Una manera más informal de entender la diferencia entre un modelo y otro, también sugerida por Piattelli-Palmarini, puede ser considerar la diferencia que hay entre comprar un traje en unos grandes almacenes o encargárselo a un sastre. En el primer caso, el cliente selecciona el que mejor le sienta de entre las tallas disponibles (un proceso selectivo), mientras que en el segundo caso el sastre toma medidas al cliente y le confecciona uno a medida (un proceso instructivo).

La noción habitual, y en cierto modo de sentido común, de aprendizaje se corresponde con el modelo instructivo. Lo que sugiere Piattelli-Palmarini es que el destino común de Jerne y de Chomsky ha sido que en ambos casos han favorecido el tránsito de los modelos instructivos a los modelos selectivos. De hecho, Jerne recibió el premio Nobel de medicina en 1984 precisamente por su contribución a una teoría selectiva del sistema inmunitario.

En el caso de Chomsky, como es bien sabido, este tránsito se produce con el rechazo de la concepción empiricista de la adquisición del lenguaje, según la cual el cerebro construye el sistema de conocimiento (la lengua interna de cada persona) extrayendo su estructura de los datos lingüísticos del entorno, por medio de procedimientos generales de aprendizaje (tales como la inducción, la generalización, la analogía o la imitación). A esta visión opone Chomsky el llamado argumento de la pobreza del estímulo: la información que proporcionan los estímulos lingüísticos que recibe el niño es insuficiente para justificar toda la estructura del sistema de conocimiento finalmente obtenido, por lo que debe postularse que algunos principios esenciales de la estructura de ese sistema de conocimiento (una lengua cualquiera) ya forman parte del organismo, esto es, son innatos. Este es un modelo selectivo de aprendizaje, no instructivo.

Si volvemos a la analogía del traje, la pregunta sería si el cerebro del niño confecciona un traje a medida del estímulo del entorno o si, por el contrario, selecciona uno de entre los trajes disponibles, en función de la «talla» del estímulo. La respuesta de Chomsky es la segunda, tan poco intuitiva que incluso hoy es ruidosamente contestada.

Pero la lección que nos enseña la inmunología moderna, aunque está plenamente aceptada, no es menos contraintuitiva que la respuesta de Chomsky. Veamos por qué y en qué sentido este episodio de la biología moderna nos puede ilustrar en lo que respecta a la adquisición del lenguaje.

Para empezar, como señala Jerne en su discurso, el sistema inmunitario es un órgano del cuerpo de cualquier vertebrado. Ese órgano está formado por las células llamadas linfocitos, que en un ser humano son en torno al 1% de la masa corporal, en un número estimado de unas 1012 unidades (esto es, más numerosas incluso que las neuronas).

Es importante en este punto distinguir entre lo que se suele denominar confusamente el sistema inmunitario innato y el adaptativo. El sistema inmunitario innato incluye muchos más elementos que los linfocitos y es una especie de primera barrera genérica (esto es, que actúa con independencia de cuál sea el antígeno que ataca). Incluye, entre otros elementos, la piel, las mucosas, los ácidos gástricos, la propia inflamación y los macrófagos. El llamado sistema inmunitario adaptativo, que también es innato, es al que se refiere Jerne y el que nos intersa aquí, pues es el que tiene un componente generativo. Dicho muy simplificadamente, los linfocitos (los linfocitos B en concreto) son los que son capaces de generar anticuerpos específicos para cada tipo de antígeno. Se denomina adaptativo precisamente por eso, porque adapta su respuesta al tipo de antígeno al que se enfrenta. No hay anticuerpos genéricos, sino que cada anticuerpo es específico para cada posible antígeno. También es adaptativo en el sentido de que el organismo «guarda memoria» de ataques anteriores, por lo que en una ulterior infección la respuesta es más rápida y eficaz (la inmunización que esperamos conseguir con la futura vacuna contra el SARS-CoV-2 que está cambiando nuestra forma de vida).

Pero nótese que este sistema inmunitario adaptativo es también innato. De hecho, eso es lo más sorprendente: este sistema inmunitario adaptativo que ya está presente en el feto funciona como un modelo selectivo y no instructivo.

En términos puramente intuitivos, dado que el sistema inmunitario es capaz de crear un anticuerpo específico para cada antígeno posible, incluyendo los que no ha encontrado antes, e incluyendo los que son nuevos (esto es, que nunca antes se habían encontrado en estados evolutivos anteriores porque se han creado en laboratorio), lo lógico es pensar que el sistema inmunitario se comporte de acuerdo con un modelo instructivo: la molécula del antígeno en cuestión determina la estructura de la molécula anticuerpo que ha de ligarla (para que luego el antígeno sea destruido), esto es, el sistema de algún modo aprendería cuál es la estructura de la molécula nociva para “hacerle un traje a medida”.

Pero no. Lo que los inmunólogos (liderados por Jerne) descubrieron es que las cosas no son así. El sistema inmunitario tiene ya preparados los posibles anticuerpos que va a necesitar. Jerne señala que en el ser humano los linfocitos pueden crear unos ¡10 millones de anticuerpos distintos! (la inconmensurabilidad de la cifra se puede valorar mejor si tenemos en cuenta que el cuerpo humano crea “solamente” unos 10.000 tipos diferentes de proteínas, incluyendo todas las hormonas, enzimas, etc.).

Según Jerne, el sistema inmunitario está “completo”, esto es, puede responder con anticuerpos específicos “a cualquier molécula que exista en el mundo, incluyendo moléculas que el sistema no se haya encontrado nunca antes” (Jerne, traducción mía). En contra de toda intuición, funciona como un sistema selectivo.

Como señala Piatelli-Palmarini, la plausibilidad de que hubiera un repertorio preparado era simplemente impensable en la inmunología. Por ello, durante decenios se pensó que los anticuerpos específicos que el organismo genera son el resultado de un proceso instructivo y no selectivo, de modo que el antígeno o elemento ajeno al organismo le “dicta” a éste cómo han de ser los anticuerpos que lo reconozcan.

Como relata el mismo autor, aunque ya en 1897 Paul Ehrlich había propuesto una teoría selectiva de formación de anticuerpos, esta concepción recibió un golpe de muerte cuando en 1912 Karl Landsteiner proporcionó evidencia experimental en contra de este punto de vista mostrando que un organismo (por ejemplo un ratón) podía desarrollar anticuerpos muy específicos contra substancias artificiales, esto es, compuestos que nunca habían sido encontrados por ningún organismo en ningún tipo de virus o bacterias “naturales”.  Se consideró entonces que era imposible que los organismos tuvieran ya previstos anticuerpos frente a substancias artificiales, y el selectivismo fue considerado no sólo improbable sino incluso inconcebible: los anticuerpos contra substancias inventadas o artificiales no podían ser innatos, dado que nunca podían haber sido útiles en el pasado y, por tanto, conservados por la selección natural. La idea de que esos anticuerpos nunca necesitados antes fueran innatos implicaría que el sistema inmunitario, tan relevante para la supervivencia, sería un sistema derrochador, costoso y poco adaptativo, algo poco aceptable en una concepción típicamente adaptativa (esto es, instructiva) de la evolución natural.

Por supuesto, después de los experimentos de Landsteiner, a ningún inmunólogo se le ocurrió manejar teorías selectivas hasta 1955, cuando Jerne volvió a proponer una teoría selectiva. Y lo hizo por querer comprender cómo el sistema aprendía a fabricar los anticuerpos adecuados a cada patógeno.

Es relevante y significativo observar el paralelismo con la gramática generativa a este respecto (paralelismo que surge incluso sin viajar en el tiempo y encontrar el Ehrlich de la lingüística en la gramática racionalista, como hace Chomsky en su contestada Cartesian Linguistics de 1966). La evidencia basada en el sentido común y en la observación del progresivo aprendizaje del lenguaje infantil, paralelo en apariencia al desarrollo de otras capacidades, lleva a la conclusión conocida en términos de aprendizaje instructivo. Pero, al igual que sucede en el ámbito de la teoría evolutiva o de la inmunología, nos quedamos sin una explicación de cómo sucede realmente el proceso de desarrollo: cómo “aprende” un organismo a tener alas, cómo “aprende” a generar anticuerpos adecuados a cada elemento patógeno, o cómo “aprende” a hablar la lengua de su entorno.

Al igual que antes Ehrlich y después Jerne, hoy en día todos los inmunólogos aceptan que un organismo tiene innatamente incorporada la capacidad de generar el repertorio de anticuerpos y que ese repertorio es capaz de encontrar un anticuerpo para cada antígeno que se le presente, ya sea natural o artificial, ya forme parte de su historia evolutiva o no. Una conclusión importante de este estado de cosas es que si el organismo se encontrara con un antígeno que, contra toda probabilidad, no tuviera su “imagen” en los 10 millones de anticuerpos previstos, el organismo simplemente no podría hacer nada contra él.

Esto implica que el organismo, literalmente, no puede aprender del entorno. Nótese la semejanza de esta conclusión con respecto al que Chomsky ha llamado el problema de Platón (esto es, cómo sabemos tanto con tan poca información externa).

En una interpretación estrictamente adaptacionista de la evolución natural (en un contexto “instructivista”), la noción de “selección de lo más adecuado” va asociada a la pérdida de lo innecesario. Dado que los linfocitos que generan anticuerpos contra substancias artificiales que todavía no se habían inventado no podían tener valor adaptativo, la forma más razonable de explicar su presencia era la derivada de un proceso de “aprendizaje” o “instrucción” a partir del entorno. Lo mismo sucede en el ámbito lingüístico: la existencia de una facultad del lenguaje (FL) innata es considerada como implausible frente a la más económica opción de un reducido número de principios de aprendizaje multifunción que construyan cada lengua en la mente de las personas.

Pero ya deberíamos saber que el sentido común no es la clave para la comprensión científica (aunque es muy útil en el día a día). Hay razones de sobra para pensar que en la ciencia cognitiva también ha habido un tránsito de los modelos de aprendizaje instructivo a los modelos de aprendizaje selectivo. Hoy en día se asume que hay un componente innato en funciones cognitivas como la visión, la memoria o las emociones, por lo que el lenguaje no debería ser una excepción, especialmente teniendo en cuenta que la lingüística generativa fue pionera en los años 50 del siglo pasado en dicho tránsito.

Por supuesto, en el caso del lenguaje no podemos aplicar literalmente la analogía con el sistema inmunitario. No cabe postular que el ser humano lleve en su genoma las más de 6.000 lenguas existentes de entre las que selecciona una o varias, en función de los estímulos del entorno. Las lenguas no son innatas. Los que podrían ser innatos son los principios que determinan cómo se construyen. Lo mismo se aplica en inmunología: los 10 millones de anticuerpos distintos no podrían estar codificados en los apenas 20.000 genes del genoma humano.

Hay numerosos aspectos de las lenguas que los hablantes aprenden del entorno por imitación, analogía e inducción. La cuestión es que no todo lo que constituye una lengua humana se puede aprender así. Muchos aspectos del lenguaje no se pueden aprender del entorno si el organismo no restringe severamente las posibles opciones, tanto en el ámbito del léxico (¿qué tipos de significado posibles puede tener una palabra?), como de la fonología (¿qué rasgos fonéticos están disponibles para los órganos articulatorios y perceptivos?), como de la sintaxis (¿qué complejidad computacional puede implementar el cerebro?).

La FL incluye al menos tres grandes componentes: un sistema conceptual (responsable del significado léxico), un sistema computacional (responsable de la sintaxis que combina conceptos para crear nuevos conceptos y pensamientos de diversos tipos) y un sistema sensoriomotor (que en el caso de las lenguas orales determina un rango específico de rasgos fonéticos utilizables). Todos esos sistemas son el resultado de la evolución natural, tienen propiedades fijas, son compartidos por todos los seres humanos y todos ellos, cada uno en su ámbito, restringen severamente qué es una lengua humana posible (qué tipo de palabras, qué tipo de fonemas y prosodia, qué tipo de sintagmas pueden tener). Todo eso está excluido del aprendizaje instructivo, afortunadamente.

El desarrollo del lenguaje en una persona se puede modelizar como el tránsito del estado inicial de la FL (FL0) al estado estable (FLE). El estado estable FLE es la lengua, el órgano del lenguaje de una persona. El paso de FL0 a FLestá condicionado crucialmente por los estímulos del entorno (particularmente los datos lingüísticos primarios que oyen los niños). Un entorno en el que se habla japonés va a hacer que los niños hablen japonés, y un entorno en el que se habla español va a hacer que los niños hablen español. Son dos lenguas muy diferentes, pero las dos están restringidas por los mismos principios comunes propios de cada sistema integrado en FL0. La función de los datos del entorno es pues la de seleccionar un determinado número de opciones abiertas, esto es, no especificadas por FL0: por ejemplo, qué rasgos fonéticos serán distintivos, cuántos colores tendrán una etiqueta léxica propia, o si el objeto directo irá delante o después del verbo.

El llamado modelo de Principios y Parámetros (Chomsky 1981) es una encarnación precisa de una teoría selectiva del aprendizaje lingüístico. Según este modelo, la FL0 consiste en un conjunto de principios, que son comunes e invariables. Pero dichos principios tienen parámetros abiertos, esto es, aspectos inespecificados que se tienen que determinar durante el desarrollo ontogenético de la FL. En un contexto teórico como este, los estímulos del entorno (los antígenos) lo que hacen es proporcionar información sobre qué opciones de los parámetros (anticuerpos) se han escogido en la lengua del ambiente, esto es, el aprendizaje consiste en la selección de los parámetros adecuados a cada lengua posible.

Por poner un ejemplo muy simplificado: hay lenguas en las que los casos (nominativo, acusativo, genitivo, etc.) se expresan morfológicamente (como en japonés o en euskera), mientras que hay lenguas en las que no se expresan (como en inglés o en español, si ignoramos los pronombres y alguna otra excepción). Supongamos que el principio innato de la FL0 es que todo sintagma nominal (SN) que entre en una oración debe tener un caso asignado. Asumamos, por ejemplo, que un SN sin caso asignado sería invisible a cierto componente de la mente, dando una oración agramatical. Por supuesto, un principio como ese (llamémosle principio del caso) no está codificado genéticamente ni ha sido moldeado por la selección natural. Debemos considerarlo como una hipótesis que formula el científico y que reflejaría el efecto de la interacción entre otros principios o procesos mentales más básicos de cuya comprensión estamos lejos.

Lo relevante ahora es que el principio del caso no especifica que el caso asignado deba expresarse morfológicamente (audiblemente) en el SN. De hecho, hay lenguas en las que el caso se expresa y lenguas en las que no. Hay lenguas en las que se expresan ciertos casos y otros no, o lenguas en las que los casos se expresan en los pronombres o en los determinantes pero no en los nombres, etc. La función de los estímulos del entorno no es proporcionar al niño información para que aprenda qué son los casos y deduzca el principio del caso mencionado (algo que en modo alguno podría hacer), sino que los estímulos proporcionan la información suficiente para que el niño pueda aprender (en este sentido sí instructivamente) si en la lengua que está aprendiendo los SSNN deben ir marcados con caso o no, si se marcan en los nombres o no, etc., esto es, en la jerga de la época, para que seleccione los valores paramétricos adecuados.

Si un niño se encontrara con una lengua inconsistente con principios fijos de la FL0, o bien no la podría aprender espontáneamente, o bien la adaptaría a dichos principios (como sucede cuando los niños desarrollan lenguas criollas a partir de pidgins).

Las teorías instructivas de la primera mitad del siglo XX en el ámbito de la inmunología asumían que el sistema de síntesis de anticuerpos del organismo sólo podía ser un conjunto de “globulinas” sin forma dispuestas a recibir la “imprimación” por parte de los antígenos externos para generar los anticuerpos adecuados. Del mismo modo, las teorías instructivas del aprendizaje del lenguaje asumen aún hoy que la génesis y desarrollo del lenguaje está regida únicamente por principios generales de aprendizaje, análogos a los que empleamos para desarrollar otros sistemas no instintivos de conocimiento, tales como jugar al ajedrez, resolver ecuaciones de segundo grado o comprender instituciones sociales o fenómenos culturales como el barroco o el romanticismo.

El tránsito de modelos instructivos a modelos selectivos ha sido notable en biología de los últimos decenios, tanto en el ámbito de la teoría evolutiva como en la biología del desarrollo o, como hemos visto, en la inmunología. Por supuesto, este hecho no es un argumento en lo que respecta al lenguaje, pero no sería inteligente no tenerlo en cuenta si lo que estamos estudiando es un atributo de nuestra especie.

Como ha dicho Chomsky en algunas ocasiones, hay muchas cosas que no podemos aprender, simplemente porque no estamos diseñados para ello, pero eso es en realidad una suerte, porque ello garantiza que sí podemos aprender otras muchas cosas.

¿Por qué hay tantas lenguas y tan distintas, si es que lo son?

[El presente texto es una versión en español de uno que se publicará en inglés en una revista que tiene una sección de Ciencia para mentes jóvenes. Aunque ZL se dirige a adultos, me ha parecido que el tono divulgativo lo hace apropiado. Además, se agradecen comentarios que me ayuden a hacerlo más comprensible y atractivo para mentes de 10-12 años]

Hace unos años, el Smithsonian’s National Museum of the American Indian organizó en California una exposición en homenaje a los llamados code talkers. La expresión code talkers se refiere al pequeño grupo de nativos navajos (y de otras etnias) que el ejército estadounidense empleó en la batalla del pacífico para codificar sus mensajes. El navajo, una lengua natural usada como sustituto del código de cifrado para las órdenes en inglés, resistió todos los intentos de descifrarlo de los expertos criptógrafos japoneses y contribuyó al desenlace favorable (a los EEUU) en la segunda guerra mundial.

Algunos lingüistas han interpretado este episodio como una interesante paradoja (una contradicción) relacionada con uno de los asuntos centrales de la ciencia del lenguaje: la tensión entre, por un lado, la diversidad evidente entre las lenguas y, por el otro, la unicidad del lenguaje humano como facultad común y específica de la especie. La paradoja reside en que, por una parte, el navajo parece ser una lengua extremadamente distinta del inglés (y del japonés), dado que los experimentados espías japoneses no pudieron descifrarlo (a diferencia de lo que hicieron con otros códigos artificiales), mientras que, por otra parte, el navajo tiene que ser también muy parecido al inglés, pues en caso contrario los intérpretes navajos no podrían haber transmitido con precisión las órdenes proporcionadas en inglés por sus mandos.

En efecto, tenemos razones claras para pensar que las lenguas humanas son muy diferentes. La prueba más evidente es que, normalmente, hablar una lengua concreta (por ejemplo el inglés) no te permite hablar y entender otras (por ejemplo el español o el ruso). Pero, por otra parte, también sabemos que el lenguaje es una propiedad común a todas las personas: todo lo que se dice en una lengua se puede traducir a otra y cualquier niño recién nacido puede aprender cualquier lengua del mundo con la misma facilidad.

¿Cómo podemos explicar esta contradicción? ¿Qué nos dicen estos hechos contradictorios sobre la naturaleza del lenguaje humano? Lo primero que necesitamos entender es por qué hay diferentes lenguas, esto es, por qué no hay una única lengua para todos los seres humanos. La sorprendente respuesta que dio uno de los lingüistas más importantes de la historia, Noam Chomsky, es que, en realidad, si un científico marciano examinara a nuestra especie concluiría que los seres humanos hablan todos las misma lengua. (No te preocupes, ¡sabemos que los científicos marcianos no existen!). Lo que Chomsky pretendía con esa afirmación es que nos situemos fuera de nuestra propia lengua, que nos es tan íntima y familiar, y que adoptemos un punto de vista más general, exactamente igual que como cuando analizamos los sistemas de comunicación de otras especies, como las ballenas o los pájaros. Como humanos, observamos que cada especie natural (ballenas azules, chimpancés, pájaros carpinteros o abejas) tiene un único sistema de comunicación, y no un montón de ellos. Y, en general, así es. Cada especie viene equipada con un sistema de comunicación propio que está biológicamente determinado. Eso implica que los individuos no lo tienen que aprender, sino que forma parte de su naturaleza, como las aletas, el pelo, el pico o el instinto de buscar polen. Y por esa razón el sistema de comunicación es el mismo para todos los miembros de la especie: si eres una ballena azul “hablas” como una ballena azul, no como una abeja.

‘¿Por qué habría de ser nuestra especie diferente?’ parece preguntarse Chomsky. Nótese que Chomsky y otros afirman que nuestra especie no es diferente porque se centran en la unidad del lenguaje humano, esto es, en el lenguaje como una propiedad específica de la especie humana, independientemente de las diferencias entre lenguas como el inglés y el japonés. Pero, claro, esa no puede ser toda la historia. Es un hecho que hay unas 6.000/7.000 lenguas diferentes en el mundo, esto es, unas 6.000/7.000 formas de hablar diferentes y que no permiten la mutua comprensión entre sus hablantes. De hecho, otros lingüistas, aquellos que se fijan más en las lenguas que en el lenguaje, han concluido que “languages can differ from each other without limit and in unpredictable ways” (Joos 1957: 96). Y también estos estudiosos tienen razón, al menos en parte.

¿De dónde salen todas esas lenguas si los humanos tienen todos el mismo lenguaje? Para responder esta pregunta tenemos que fijarnos con un poco más de detalle en el ‘lenguaje’ de otros animales, como las ballenas o los pájaros. Los etólogos (los que estudian en comportamiento de los animales) han observado que hay sutiles diferencias en los cantos de diferentes grupos de ballenas de la misma especie y en los cantos de diferentes grupos de pájaros de la misma especie. Así, muchos pájaros no se limitan a imitar el canto de los adultos, sino que producen ciertas innovaciones que hacen que las canciones que usan no sean idénticas a las que oyeron mientras se desarrollaban. Esto hace que sucesivas generaciones de pájaros oigan canciones ligeramente diferentes a las de la generación anterior, lo que tiene como resultado que los pájaros de la misma especie de diferentes regiones cantan canciones ligeramente distintas.

Pero esto no es muy diferente de lo que pasa con las lenguas humanas: todos tenemos la experiencia de haber comprobado que, incluso dentro de lo que consideramos una misma lengua, hay gente que habla de manera distinta, por ejemplo personas que residen en diferentes lugares de un mismo país suelen usar algunas palabras diferentes o pronunciar ciertos sonidos de manera diferente (es lo que los lingüistas llaman dialectos, esto es, diferentes maneras de hablar una misma lengua). Es importante señalar ahora que la diferencia entre dialectos y lenguas no es una diferencia de clase, sino una cuestión de grado de semejanza entre formas diferentes de hablar. Así, consideramos que dos formas distintas de hablar inglés son dos dialectos de una misma lengua (el inglés) porque esas formas se parecen mucho entre sí (normalmente sus usuarios se entienden mutuamente), mientras que consideramos que la forma de hablar de un inglés y la forma de hablar de un francés no son dialectos de la misma lengua sino de lenguas distintas porque esas formas se parecen mucho menos (y normalmente sus usuarios no se entienden mutuamente). Podría decirse que los usuarios de sistemas animales como el de las ballenas o los pájaros solo tienen ‘dialectos’ porque el margen de variación en el lenguaje animal es muy reducido, mientras que los usuarios del lenguaje humano no solo tienen dialectos, sino también ‘lenguas distintas’ (esto es, dialectos no inteligibles mutuamente) porque el margen de variación en el lenguaje humano permitido por la biología es mucho mayor que en el lenguaje animal.

La cuestión a responder, entonces, es por qué el lenguaje humano permite mucha más variación que el lenguaje animal. La respuesta tiene que ver con el tipo de animales que somos los seres humanos. Por supuesto, somos animales (no ángeles o espíritus), y como tales animales tenemos un lenguaje propio de nuestra especie, común a todas las personas y muy distinto del de otras especies. De ahí que se pueda decir que, a pesar de las diferencias entre lenguas, todos los seres humanos tenemos el mismo lenguaje. Pero, por otra parte, somos animales especiales, en el sentido de que estamos muchísimo más capacitados que los demás para aprender del entorno y desarrollar y transmitir cultura. Los seres humanos tenemos un periodo de crecimiento y aprendizaje mucho más largo que el resto de animales. Nacemos inmaduros (probablemente por el gran tamaño de muestra cabeza) y la naturaleza nos ha dotado de una increíble capacidad de aprender. Además, nuestro lenguaje es mucho más complejo y versátil que el de las otras especies, y por ello tenemos que pasar los primeros años de nuestra vida usando la interacción con nuestros semejantes para que el lenguaje se desarrolle plenamente.

Ya hemos visto que en buena parte del resto del reino animal el lenguaje propio de cada especie está biológicamente determinado y sus usuarios no tienen que aprenderlo del entorno. En esos casos no hay dialectos (ni, por supuesto, lenguas). Algunas especies, como las ballenas o ciertas aves, tienen una cierta capacidad de aprender partes del lenguaje del entorno (dentro de una clara limitación impuesta por la biología de cada sistema) y ello provoca que puedan surgir dialectos en individuos que viven en zonas diferentes. El caso de los animales humanos es una versión mucho más acentuada de estos últimos ejemplos. La naturaleza nos ha diseñado para tener que aprender del entorno una buena parte de nuestro lenguaje, lo que tiene como consecuencia que no solo es normal que surjan dialectos diferentes, sino que éstos se diferencien tanto unos de otros con el paso del tiempo y el aislamiento de los grupos humanos que acaben dando lugar a lenguas distintas. De hecho, lenguas tan diferentes como el inglés, al alemán, el noruego o el islandés no hace mucho eran diferentes dialectos de una misma lengua, que los lingüistas llaman proto-germánico.

dogsPero ello no implica que las diversas lenguas humanas no compartan un conjunto esencial de rasgos de diseño propios de nuestra especie. Para hacernos una idea de cómo puede ser esto, pensemos en las distintas variedades o razas de los perros. Como puede apreciarse en la figura 1, los distintos individuos de la foto son muy diferentes en color, tamaño, tipo de pelo, forma de la cabeza y de las orejas, etc. Pero todos ellos son perros, y no hay algunos que sean más o menos perros que otros. A todos ellos subyacen propiedades comunes internas que los definen como una clase natural, aunque muestren una exuberante diferencia en sus rasgos superficiales.

childrenO consideremos la imagen de la figura 2. Todos son niños de la misma especie, aunque es cierto que tienen rasgos superficiales distintos (como el color del pelo, el tono de la piel o el color de los ojos). La cuestión importante ahora es: ¿cuántas sonrisas diferentes hay en la foto? Solo una. Una sonrisa humana.

Las lenguas parecen diferentes, pero como son variaciones de una misma facultad del lenguaje, podemos decir que todas ellas sirven para las mismas funciones, tienen el mismo grado de desarrollo y merecen el mismo respeto.

¿Por qué es importante Chomsky?

Chomsky-youngEl 7 de diciembre de 2018, Noam Chomsky cumple 90 años. No quiero ser ajeno a semejante aniversario de mi héroe intelectual y me gustaría aprovechar la ocasión para explicar en términos comprensibles (es decir, accesibles a quienes no están inmersos en la jerga de la lingüística generativa) por qué este hombre es tan importante, no solo para la lingüística, sino para la ciencia cognitiva en general. Y no solo para los generativistas, sino para todos los estudiosos del lenguaje y de la mente humana.

El problema es que hay mucha gente que lo conoce y lo comprende mucho mejor que yo y ya lo ha explicado antes maravillosamente. Me daban ganas de ahorrarme el trabajo y simplemente copiar algunas páginas escritas por Neil Smith en su excelente libro Chomsky: Ideas and Ideals de 1999, pero me conformaré con incluir en mi texto algunas citas largas, con la esperanza de que animen a volver a esa más completa presentación de nuestro personaje, sus ideas y sus ideales. [Las citas de Smith están tomadas de traducción al español].

¿Por qué es Chomsky tan importante? En mi opinión, la principal aportación de Chomsky a la lingüística moderna, y que ciertamente transciende esta disciplina, es el haber introducido en un contexto moderno y científico una visión de la mente y la cognición humanas opuesta al empiricismo originado por Hume y Locke. Según ese punto de vista, la mente es una especie de ‘pizarra en blanco’ (tabula rasa) y la experiencia escribe en esa pizarra dando forma a los sistemas de conocimiento. La mente, así, es un reflejo de las regularidades estadísticas del mundo externo en el que se desarrolla. Pero el trabajo de Chomsky sobre la sintaxis de las lenguas humanas vino a poner de manifiesto que este modelo era clamorosamente insuficiente para explicar cuál es la estructura de las lenguas y cómo es posible que los niños las adquieran. Lo que vino a mostrar ya en sus primeros trabajos es que los hablantes saben mucho más de lo que han podido aprender a partir de los estímulos lingüísticos del entorno. Por así decirlo, Chomsky descubrió que hay una estructura computacional compleja e interna subyacente a las secuencias lineales de palabras de la gramática tradicional, y argumentó, en contra de la visión imperante en el momento, que el origen de esa estructura está en el propio cerebro, y no fuera del mismo. El lenguaje se convertía entonces en una especie de ‘objeto natural’, un atributo de nuestra especie (seguramente resultado de la evolución natural) que merecía ser estudiado como cualquier otro objeto de estudio de la ciencia natural.

Tal y como lo formula Smith, y creo que no se puede explicar mejor en un solo párrafo, Chomsky es importante porque «ha demostrado que en realidad hay un único lenguaje humano: que la inmensa complejidad de las incontables lenguas que oímos a nuestro alrededor no pueden ser otra cosa que variaciones sobre un único tema. Ha revolucionado la lingüística, y al hacerlo ha introducido un zorro en el gallinero filosófico. Ha resucitado la teoría de las ideas innatas, ha demostrando que una parte considerable de nuestro conocimiento está determinada genéticamente; ha rehabilitado ideas racionalistas con siglos de antigüedad, pero que habían caído en el descrédito; y ha aportado pruebas de que el ‘conocimiento inconsciente’ es lo que subyace a nuestra capacidad de hablar y de entender. Ha contradicho a la escuela del conductismo, dominante en el ámbito de la psicología, y ha restituido el protagonismo de la mente en el estudio del ser humano. En pocas palabras: Chomsky ha cambiado nuestra forma de pensar en nosotros mismos, labrándose un lugar en la historia del pensamiento a la altura de Darwin y de Descartes. Y lo ha hecho mientras dedicaba la mayor parte de su tiempo a la disidencia y al activismo político: documentando las mentiras del gobierno, sacando a la luz las influencias ocultas de los grandes negocios, desarrollando un modelo de orden social y ejerciendo de conciencia de Occidente.»

De lo sorprendente y singular de su vasta y ambivalente influencia habla la siguiente anécdota: se cuenta que en uno de los primeros viajes que Noam hizo a Polonia (Chomsky es un apellido relativamente común en ese país), algunos de sus anfitriones simplemente no podían creerse que el Chomsky lingüista era la misma persona que el Chomsky activista anarquista. Algo parecido se cuenta del otro gran lingüista de la historia, Ferdinand de Saussure. Cuando un joven Ferdinand se presentó en la Universidad de París como el nuevo profesor de Lingüística Indoeuropea, algunos profesores parisinos le preguntaron si acaso era hijo del gran lingüista suizo Saussure, el autor de la Mémoire sur le système primitif des voyelles dans les langues indo-européennes, que en realidad era su tesina de licenciatura.

Entre los personajes más influyentes de este siglo, afirma Smith, «figuran personalidades tan dispares como Einstein, Picasso y Freud, y con todos ellos Chomsky tiene algo en común: como Freud, pero con mayor rigor intelectual, ha cambiado el concepto que teníamos sobre la mente; como Einstein, combina la intensa creatividad científica con el activismo político radical; como Picasso, ha puesto patas arriba sus propios principios con asombrosa frecuencia.»

De hecho, en el Arts and Humanities Citation Index (entre 1980 y 1992) Chomsky fue citado 3,874 veces, lo que lo convierte en la persona viva más citada en ese periodo y la octava incluyendo a los ya muertos. La lista completa de los diez primeros (en orden de citas acumuladas) es elocuente sobre su influencia: Marx, Lenin, Shakespeare, Aristóteles, la Biblia, Platón, Freud, Chomsky, Hegel y Cicerón. Paro además, en el mismo periodo, aparece citado otras 1.619 veces en el Science Citation Index.

Chomsky-RussellSmith y otros destacan la similitud entre Chomsky y Bertrand Russell, quien en una de sus primeras obras, Principia Mathematica, redefinió los cimientos de las matemáticas, y dedicó gran parte de su vida al activismo político. En efecto, Chomsky ha dicho alguna vez que Russell es una de las pocas personas a las que realmente admira y (como se muestra en la foto) un gran póster del matemático británico presidía su mítico despacho en el MIT. De manera similar, Chomsky introdujo con sus primeras obras publicadas (Estructuras sintácticas, de 1957 y Aspectos de la teoría de la sintaxis, de 1965) una auténtica revolución en la lingüística y en la ciencia cognitiva.

Como he señalado, lo que hace revolucionaria la aportación inicial de Chomsky, lo que permite que podamos considerarlo uno de los fundadores de la ciencia cognitiva, es que mostró que una gramática no es una descripción más o menos sistemática de una lengua, sino que es una teoría de una lengua, y, como tal, dicha teoría está sujeta en su construcción y en su evaluación a las mismas restricciones y principios que cualquier otra teoría científica. Otro logro central y revolucionario, incontestable, de Chomsky fue situar la sintaxis en el centro de la teoría lingüística. Y la sintaxis está relacionada con uno de los rasgos centrales y definitorios del lenguaje y del pensamiento humanos: la creatividad.

Algunos autores (véase la introducción a Otero ed. 1994) consideran que la ciencia cognitiva nació el 11 de septiembre de 1956. Se eligió esa fecha porque ese día se presentaron tres ponencias cruciales en un simposium sobre Teoría de la Información en el MIT: una de Herbert Simon y Allen Newell sobre resolución de problemas (la demostración de un teorema de los Principia Mathematica usando un ordenador), el artículo legendario de George A. Miller sobre los límites de la memoria a corto plazo y, por supuesto, la propuesta de Chomsky «Three models for the description of language». En dicho artículo, un Chomsky de 27 años (aunque el texto data de varios años antes), demostró que la expectativa de generar el lenguaje humano con un autómata de estados finitos (básicamente uno que opera con relaciones lineales entre palabras y estadística) era infundada, lo que venía a socavar el modelo matemático del lenguaje sobre el que se asentaba la lingüística estructural y conductista anterior.

El efecto central de esta aproximación chomskiana al lenguaje fue mostrar que el comportamiento lingüístico implica el uso de un conocimiento del lenguaje, y que dicho conocimiento no se plasma o realiza de manera directa en el comportamiento. Se plantea entonces, como señala Otero, un problema de complejidad cualitativo y no cuantitativo: la única salida del atolladero era entonces postular un nivel abstracto de ‘mente’ como un principio explicativo (un poco como Newton había postulado la gravedad) y proceder a estudiar sus propiedades y organización. Lo que impulsó Chomsky fue, por tanto, un cambio radical de perspectiva en la ciencia cognitiva: del estudio del comportamiento y de los resultados del comportamiento, al estudio de los sistemas mentales de computación y representación. La consecuencia directa es que entonces el estudio de la mente/cerebro (recuérdese que la mente es una visión abstracta del cerebro) se puede hacer sin apartarse del método estándar de las ciencias naturales.

La influencia de Chomsky se ha extendido más allá de tres campos en los que ha tenido un impacto profundo (la lingüística, la filosofía y la psicología), tales como la antropología, las matemáticas, la música, la educación, la crítica literaria o la teología (!). En todo caso, como señala Smith «su obra en estos campos [lingüística, filosofía y psicología] ha sido siempre innovadora y controvertida». Es cierto que en las tres áreas ha sido profusamente malinterpretado y uno de los objetivos del libro de Smith es precisamente explicar por qué se le ha adulado y a la vez se le ha vilipendiado tanto. En algunos casos, según el autor, es tarea sencilla: las ideas preconcebidas que causan los malentendidos son fácilmente detectables. Pero en otros casos es más difícil «comprender tanta hostilidad». Aunque Smith no lo sugiere, no son pocos quienes creen que sus ideas políticas son a veces la explicación de los furibundos ataques, pero eso no lo puede explicar todo. Como ha dicho en alguna ocasión el propio Chomsky, quizá sea que ¡el empiricismo es innato!

La obra de Chomsky es amplísima: ha publicado cerca de un centenar de libros -aunque es cierto que se repite mucho- y cientos de artículos y capítulos, además de haber escrito decenas de miles de cartas. Como dice Smith, «su dominio de una enorme cantidad de campos es abrumador: cuestiones de actualidad de todo el mundo, política, historia, lingüística, filosofía, psicología, matemáticas… Quedan pocos campos de los que Chomsky no tenga conocimiento. Lograr esta maestría en tantos campos requiere ‘fanatismo’ y, como él mismo dice, capacidad y entrega para ‘trabajar como un loco’. También requiere un enorme valor, una entrega inagotable y la renuncia al tiempo libre. Él mismo escribió: ‘Hace falta tener un ego muy grande para soportar el hecho de estar diciendo algo distinto de lo que dice el resto de la gente’. Chomsky considera que su aportación es ‘pre-galileana’, aunque Berlinski probablemente tiene razón cuando lo considera ‘tan grande como Galileo’. A finales del siglo XVI, Galileo fundó el método experimental que sostiene a toda la ciencia moderna; a finales del siglo XX, Chomsky está considerado el autor de la revolución cognitiva que comienza a ampliar ese método al estudio de la mente

Pero como también señala Smith, no todos comparten esta positiva valoración de su figura: «el filósofo Richard Montague lo ha llamado ‘uno de los grandes fraudes de la ciencia del siglo XX’ (el otro era Einstein, de modo que al menos está en buena compañía); lo han tachado de ‘oportunista… que aplaude la corrupción y hace apología de la indiferencia del gobierno frente a protestas contra la guerra y el colonialismo’; lo han llamado ‘el gran chiflado americano’ y lo han acusado de estar ‘fuera de los límites de la responsabilidad intelectual’. Ha sido encarcelado varias veces por su activismo político y con frecuencia ha sufrido amenazas de muerte. Una polarización de opiniones tan marcada requiere una explicación, y una de las razones por las que [Smith escribió su libro] es precisamente para sentar las bases de esa explicación.»

Smith admite (sin rubor) que Chomsky es su héroe intelectual (aunque no siempre esté de acuerdo con él). También lo es el mío, no solo por la enorme influencia intelectual que ha ejercido en todo lo que (mejor o peor) he hecho en mi carrera, sino porque también es un modelo de vida.

En un reciente artículo, Bruce E. Levine sostiene que una de las claves que explican que un activista anarquista haya llegado a los 90 años sin renegar de sus ideas y sin desmayo, incluso sobreponiéndose a la típica autodestrucción de muchos de sus colegas de lucha, está en haber sabido digerir la rabia y vivir armónicamente. En palabras de Chomsky, que Levine cita: «Mira, no vas a ser efectivo como activista político a menos que tengas una vida satisfactoria». Aunque Levine no lo sugiere, creo que se podría afirmar que una clave esencial para esa vida satisfactoria de nuestro héroe no ha sido solo tener un buen puesto en una Universidad fantástica y un barquito en el que navegar por un lago, sino, sobre todo, haber tenido una increíble carrera científica, con una influencia en su ámbito sin parangón en la ciencia actual.

Como señala Smith, «a pesar de su capacidad para derribar los edificios que él mismo ha creado, sus compromisos morales y los fundamentos intelectuales de su obra tienen un carácter atemporal que claramente se remonta a su infancia.» Según Smith,  tanto en lingüística como en política, sorprende la capacidad de Chomsky para llegar hasta el fondo de cada asunto y para sacar de él «lo que hay de defendible y constructivo y desechar cuanto tiene de deshonesto, inmoral o irracional», y por ello lo compara, en el espíritu y en los logros, con Darwin, quien escribió a su amigo y mentor Henslow:

«Creo que existe, y siento dentro de mí, un instinto que me guía hacia la verdad, o hacia el conocimiento o el descubrimiento, de la misma naturaleza que el instinto de la virtud, y creo que el hecho de que tengamos ese instinto es razón suficiente para las investigaciones científicas insulso si nunca se deriva de ellas ningún resultado práctico» (Darwin, citado por Neil Smith)

Y, en efecto, la palabra verdad aparece en el origen de sus dos dedicaciones esenciales. Cuando define lo que debe ser el periodismo político, sentencia escuetamente: ‘descubre la verdad y cuéntala’. Cuando define el objetivo de la lingüística se refiere a ‘descubrir la verdad acerca del lenguaje’.

Como sucedió con Darwin, sabemos que ha habido una revolución chomskiana no porque todos los lingüistas sean chomskianos (nada más lejos de la realidad), sino porque todo lingüista que quiera encontrar un consenso sobre una nueva teoría del lenguaje tiene que demostrar que la suya es mejor que la de Chomsky. No hay mejor prueba de que Chomsky cambió la lingüística y la ciencia cognitiva para siempre.

Lenguaje, Creatividad y Movimientos Sociales

Ya está disponible el vídeo de la última charla de ZL, ofrecida el pasado 26 de noviembre en el Salón de Actos de la Biblioteca María Moliner por la Dra. Manuela Romano (Universidad Autónoma de Madrid).

Una ecuación para la lingüística (¡por fin!)

Los lingüistas solemos ser envidiosos de la física. Nos encanta presumir frente al resto de practicantes de las llamadas humanidades de hacer una ciencia natural empírica que usa el método hipotético deductivo (algunos hemos escrito pesados tratados intentando demostrar eso). Pero, a la vez, sabemos que las cosas en lingüística (como suele suceder en general en las ciencias cognitivas) son muy diferentes de como lo son en física, en química e incluso en biología. Nuestros objetos de estudio son mucho más elusivos y abstractos, las pruebas de su existencia más alambicadas y nuestra capacidad de observación y medición mucho más limitada e indirecta que en las llamadas ciencias duras.

Una de las carencias de nuestra ciencia frente al espejo de la física es que nuestras teorías no se formulan matemáticamente con ecuaciones (la biología también cojea en eso, pero hace tiempo que ha hecho sus pinitos). Quizá por eso Ernst Rutherford decía que la ciencia, o era física, o era coleccionar sellos.

Pero en los últimos años el lingüista Charles Yang (formado como informático en el MIT y ahora profesor en la Universidad de Pensilvania), especialista indiscutible e influyente en el estudio de los mecanismos de adquisición del lenguaje, nos ha proporcionado una bella ecuación que, a diferencia de otras (como la famosa ley de Zipf), sí nos permite conocer mejor algunos aspectos de la facultad del lenguaje. Aunque la ecuación de Yang aparece en varios artículos previos, la presentación más completa y redonda de su modelo aparece en el excelente libro The Price of Linguistic Productivity de 2016, justamente galardonado con el premio Bloomfield de la Linguistic Society of America de este año.

Antes de entrar en detalles, conviene recordar que una ecuación expresa una igualdad matemática entre dos expresiones y que la ciencia las utiliza para enunciar leyes de forma precisa. La ecuación que nos ocupa no tiene la belleza y relevancia de otras tan célebres como las de Newton, Maxwell, Einstein o Schrödinger, pero aun así tiene una importancia capital para la ciencia del lenguaje, especialmente para nuestra mejor comprensión de cómo es posible que los niños de entre cero y cuatro o cinco años sean capaces de descubrir reglas productivas en su lengua sobreponiéndose a numerosas excepciones y a una exposición incompleta y no sistemática a los datos necesarios (o sea, lo que Chomsky denominaba el problema de Platón: cómo sabemos tanto con tan poca información).

La ecuación de Yang expresa lo que él denomina el principio de tolerancia y, en términos simples, establece con sorprendente precisión cuál es el umbral de tolerancia a las excepciones que los mecanismos de adquisición del lenguaje del niño son capaces de soportar para poder inducir una regla productiva.

No cabe ninguna duda de que los niños están especialmente dotados para la búsqueda de regularidades en el input lingüístico que les rodea (de forma más pedante, decimos que intentan construir la gramática más eficiente para entender y usar la lengua del entorno). Pero esa es una tarea cognitiva que dista de ser sencilla, especialmente cuando las reglas deben inducirse a partir de una muestra limitada. Así, si de comer tenemos como y de beber tenemos bebo, no es extraño que, aunque nunca lo hayan oído antes, de romper los niños produzcan rompo. Parece que han detectado que los verbos de la segunda conjugación en español hacen la primera persona del presente de indicativo añadiendo -o a la raíz (en este caso el resultado de quitar –er al infinitivo). El problema es que junto a bebocomo o rompo, también están en el entorno del aprendiente quepo (de caber), sé (de saber), tengo (de tener), muerdo (de morder), traigo (de traer) o he de haber, todos ellos ejemplos que desacreditan la hipótesis de que el presente se forma simplemente añadiendo –a la raíz del verbo, esto es, todos ellos formas irregulares. La pregunta que se plantea Yang (siguiendo una vastísima tradición de discusión y controversia en ese ámbito, normalmente en torno a los verbos irregulares en inglés) es cómo se las arregla el niño para formular una regla productiva.

Podría parecer una pregunta ociosa: dado que las formas regulares son mucho más abundantes que las irregulares, simplemente se impone el patrón más común, esto es, el regular. Pero las cosas no son así en absoluto: el niño no tiene acceso a un número ilimitado de datos ni, por supuesto, acceso a corpus y herramientas computacionales que le permitan llegar a esa conclusión. Más bien al contrario, como ha mostrado Yang analizando detalladamente el input que reciben los niños y sus propias producciones, la exposición que tienen a los datos es incompleta y necesariamente reducida. De hecho, aunque los verbos irregulares son, por definición, menos abundantes que los regulares, resulta que su uso es mucho más frecuente que el de los regulares (por ello precisamente se mantienen como irregulares, porque se usan mucho y se aprenden muy pronto). Piense el lector en los verbos ser, tener o haber (por no salir de la segunda conjugación) y verá que esto es así sin necesidad de hacer estadística.

Pero, por supuesto, en el input del niño debe haber un número suficiente de ejemplos regulares para que se estimule la formación de la regla. ¿Cuál es ese número? O mejor planteado: ¿a cuántas excepciones o ejemplos irregulares es capaz de sobreponerse el niño para construir una regla productiva?

Aquí es donde entra el principio de tolerancia, expresado en la ecuación mencionada. Veámosla en todo su esplendor:

Yang-1

Aunque esta fórmula puede resultar opaca para los no informados (incluido quien suscribe), lo que el principio de tolerancia predice es lo siguiente: para que una regla R sea productiva, el número de excepciones (e) tiene que ser igual o menor que el número expresado por la función N/LnN, donde N es el número total de ejemplos del input (incluyendo las excepciones) y donde Ln es el logaritmo neperiano. La ecuación establece pues, con precisión, cuántas excepciones dentro del número total de ocurrencias puede tolerar nuestro instinto de formular una regla productiva.

Otra forma de entenderlo es considerar que, aunque una regla productiva es más eficiente que la memorización de cada forma (como parece de sentido común, pues en caso contrario no existiría la conjugación verbal), la regla sólo se formulará si la recompensa por ello hace a la gramática más eficiente que con la memorización de cada forma. Nótese que una vez formulada la regla en la gramática interna del niño, dicha regla tendrá que aplicarse a las formas no memorizadas como irregulares. Pero para saber si un verbo es o no irregular, el niño deberá repasar los verbos irregulares memorizados. Si la lista de verbos irregulares es muy larga, entonces ya no tendría ventaja computacional formular la regla productiva. La fórmula de Yang determina con sorprendente precisión cuál es esa longitud crítica de la lista a partir de la cual los niños formulan las reglas productivas (y también explica, por supuesto, cuándo no lo hacen).

Yang (2016) recoge una impresionante cantidad de estudios empíricos reales de adquisición de morfología, fonología y sintaxis en diversas lenguas en los que la fórmula funciona con precisión matemática. Para no cansar al lector, me centraré solo en el caso estrella, la formación del pasado en inglés. Imaginemos que un niño que está adquiriendo el inglés conoce 120 verbos irregulares (esto es e=120), que son más o menos los que Yang encuentra en el corpus CHILDES de inglés dirigido a los niños, de unos cinco millones de palabras. Con la fórmula en cuestión podemos inferir que entonces N (el número total de verbos sumando regulares e irregulares que tiene que saber el niño) es de 800. Eso implica que para que un niño produzca la regla de formación regular del pasado en inglés (toscamente, añadir –d) debe conocer al menos 680 verbos regulares. Y así es, en efecto: el corpus mencionado contiene unos 900 verbos regulares conjugados según la regla “añadir –d”. Y es precisamente en ese momento cuando los niños que están aprendiendo inglés dan con la regla y la empiezan a aplicar productivamente (incluso erróneamente a los verbos irregulares, exactamente como cuando los niños que aprenden español dicen cosas como cabosabo, etc.). Hasta el momento en el que se alcanza ese umbral crítico de tolerancia, los niños son conservadores y se limitan a repetir las formas que oyen, esto es, operando solo con memorización asociativa. Los niños que dicen cabo o sabo (palabras que no han podido memorizar previamente) ya han superado el umbral crítico y han dejado de memorizar palabras innecesariamente y han pasado a confiar en las reglas productivas. Y por eso conjugan perfectamente verbos que nunca habían oído antes.

En la siguiente tabla, adaptada de Yang, vemos algunos ejemplos concretos de aplicación de la fórmula que nos permitirán captar otra propiedad notable del principio de tolerancia:

N θN %
10 4 40.0
20 7 35.0
50 13 26.0
100 22 22.0
200 38 19.0
500 80 16.0
1.000 145 14.5
5.000 587 11.7

En la primera columna tenemos el número total de casos (N) y en la segunda el resultado de la función N/LnN, que define el umbral de tolerancia (recuérdese, el número de excepciones, e, debe ser igual o menor que ese número). Es llamativo observar la tercera columna, que expresa el porcentaje de excepciones a la regla que tolera cada caso. Nótese que esa proporción no es constante, sino que depende del tamaño de N: cuanto menor es N, mayor porcentaje de excepciones se tolera. Así, para N=10 se toleran hasta un 40% de casos irregulares, mientras que para N=5.000 solo un 11,7%. Esto es muy notable.

De hecho, es muy tentador interpretar esto como una adaptación para la adquisición temprana del lenguaje, esto es, para explicar cómo es posible que las reglas productivas como las que hemos revisado someramente se obtengan a la edad de 2-3 años, cuando la experiencia vital y el tamaño del input recibido es necesariamente restringido. Podría decirse que la facultad del lenguaje no solo está diseñada para aprender la gramática más eficiente posible a la vista de los datos, sino también para aprovechar la ventana de oportunidad definida por el periodo crítico para la adquisición del lenguaje. Como dice Yang, en ocasiones como esta, menos es más. El principio de tolerancia permite que los cerebros en maduración (cuando realmente pueden adquirir la lengua materna de forma plena) puedan sobreponerse al input reducido que necesariamente va asociado a la corta edad.

En un trabajo posterior Yang (2017) ha ido más lejos y ha propuesto que la capacidad humana de contar hasta el infinito (instanciada en la llamada función sucesor) tiene una base lingüística, algo ya sugerido por Chomsky (2007) al relacionar la operación Merge que está en la base de la sintaxis con dicha función. Yang postula que la función sucesor se desarrolla en los niños a la vez que se desarrolla la adquisición del léxico numérico, esto es, a la vez que se desarrolla el sistema morfosintáctico que nos permite construir productivamente palabras para el número siguiente.

En lo que ahora nos interesa, de nuevo el principio de tolerancia hace predicciones sorprendentes. Revisando la bibliografía al respecto, Yang observó que en los estudios sobre la capacidad de contar de niños de lengua inglesa hay un salto cualitativo a partir de 72, esto es, que los niños desarrollan su capacidad en diversas fases, lentas y con regresiones, pero que una vez que saben contar hasta 72 ya no hay un límite superior (esto es, han dado con la función sucesor).

Pero ¿por qué 72? La respuesta, claro, está en el principio de tolerancia. Consideremos los primeros cien números en inglés (abreviando y escribiendo con letras las palabras irregulares y con cifras las regulares):

one two three four five six seven eight nine ten eleven twelve thirteen 14 fifteen 16 17 18 19 twenty 21 22 23 24 25 26 27 28 29 thirty 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 fifty 51 52, etc…

Hay un total de 17 formas no predecibles que hay que aprender de memoria (el resto se forman componiendo sobre estas, como por ejemplo twenty-nine para 29), lo que permite predecir aplicando el principio de tolerancia que si es 17, el menor valor para N es 73, por lo que si un niño aprende a contar en inglés hasta 73 ya no tendrá límites. Señala Yang que en una lengua más regular, como el chino, solo los primeros 12 números tienen que aprenderse de memoria, por lo que un niño aprendiendo chino será capaz de contar sin límite una vez que haya adquirido 46 palabras numéricas, lo que de hecho da cuenta de la previamente observada mayor precocidad en la capacidad de contar de los niños que hablan chino frente a los que hablan inglés.

Está claro que todo esto no equipara a la teoría lingüística con la física en cuanto al uso de las matemáticas y la capacidad de predicción, pero es inevitable no reconocer que es un paso adelante importante en el camino ideal del edificio de la ciencia, que no es otro que la integración. Como ha señalado Chomsky (y como en realidad no puede ser de otra manera), la facultad humana del lenguaje es el resultado de tres factores fundamentales: la dotación biológica, el influjo del entorno lingüístico y los principios generales de la naturaleza, incluyendo los principios de simplicidad y eficacia computacional (el llamado tercer factor en el que pone énfasis el programa minimalista chomskiano). El trabajo de Yang es indudablemente una aportación de primer orden en la ardua tarea de desentrañar cómo se relacionan entre sí estos tres factores a la hora de producir la facultad del lenguaje que atesora cada hablante, el objetivo esencial de la teoría lingüística.

Y ya que he mencionado el tercer factor, cabe señalar que, aunque Yang no lo menciona (que yo sepa), es aún más intrigante conocer (gracias a un amigo matemático, el profesor Manuel Vázquez, que me lo señaló) que la función N/LnN se emplea para calcular cuántos números primos contiene una cifra. Así, si volvemos a la tabla de antes, podemos predecir que 10 incluye 4 números primos (2, 3, 5 y 7) y que 20 incluye 7 números primos (2, 3, 5, 7, 11, 13 y 17), etc. No soy capaz de valorar la importancia de esta coincidencia (y ni si es realmente una coincidencia), pero sí de apreciar la belleza que hay detrás de la misma. Quién sabe si la distribución estadística entre regularidad e irregularidad que favorece la adquisición del lenguaje por parte de cerebros en plena maduración tendrá alguna relación con el misterio esencial de los números primos, pero sería bonito pensar que sí.

¿Hay algún lingüista en la sala? Ideas sobre las lenguas que perjudican seriamente la salud de la gramática

a través de ¿Hay algún lingüista en la sala? Ideas sobre las lenguas que perjudican seriamente la salud de la gramática

El refranero del lingüista

Del blog de BMarqueta

 

La Morfología sin Límites

A buen lexicógrafo, pocas palabras bastan

A grandes raíces, peores alomorfos

Sufijo que no has de segmentar, ¡Déjalo pasar!

Al mal tiempo, buen modo

Ande yo delante y ríase el determinante

A palabras necias, sonidos sordos

Cría sinónimos y te sacarán más rasgos

Cuando el pronombre suena, tilde lleva

Cuando una sílaba se cierra, una vocal se abre

Cuanto más alto se sube, más grande será la huella

Del árbol caído todos hacen cognitiva

Donde hay sujeto no manda tópico

Dos no cotejan ni uno no quiere

El que avisa no es anáfora

En el medio está la finitud

La semántica es lo último que se pierde

No es adverbio todo lo que reluce

No hay infijo que cien años dure, ni morfología que lo resista

No solo de plural concuerda el nombre

Nunca es tarde si la deixis es buena

Piensa la conjunción que todos van en su misma…

Ver la entrada original 14 palabras más

Gramática: ¿una ciencia de pacotilla?

Imaginen que un profesor de física de Educación Secundaria escribiera una carta a la armonizadora de la Prueba de Acceso a la Universidad (PAU) diciéndole que eso de la mecánica cuántica es una mandanga y que era todo mucho más claro cuando los átomos eran indivisibles. O que un profesor de matemáticas le dijera a la armonizadora de su PAU que la geometría no euclidiana es una aberración, o que un profesor de biología reprochara que se penalizara a quienes negaran la teoría de la evolución en el examen. O imaginen que un profesor de química, aduciendo que así lo aprendió él, se negara a enseñar a sus alumnos la tabla periódica, siendo que ya los griegos habían dicho que los elementos fundamentales son cuatro, y pretendiera que no se penalizara esa teoría en los criterios de corrección. No menos sorprendente (ni menos irritante) sería comprobar que tales profesores les sugirieran a las armonizadoras respectivas (normalmente Profesoras Titulares o Catedráticas de Universidad con años de estudio e investigación y decenas de publicaciones en revistas científicas) que leyeran a Demócrito, a Euclides, a Newton… o la Biblia.

Son ejemplos grotescos, pero, en realidad, algo así está pasando en Aragón con respecto a ciertas propuestas que la armonizadora de la PAU de “Lengua castellana” (mi compañera la Dra. Mamen Horno Chéliz) ha hecho a la comunidad de docentes de secundaria de cara a la evaluación de la prueba de análisis sintáctico de la PAU del próximo curso.

Bueno, admito que exagero, pero me temo que no tanto como parece.

¿Qué sofisticadas y controvertidas teorías modernas, arriesgadas e incomprensibles para la mente adolescente ha sugerido la armonizadora que deberían reflejar los alumnos en la PAU para no tener (una modesta) penalización en sus análisis sintácticos?

Fácil, solo dos cosas: que analicen los Sintagmas Preposicionales como Sintagmas Preposicionales y que no confundan el argumento locativo de un verbo con un complemento circunstancial de lugar. Vamos, que no confundan la función sintáctica de sobre la mesa en He puesto el libro sobre la mesa y en Me gusta bailar sobre la mesa.

Que en el primer caso sobre la mesa es un argumento del predicado poner está fuera de toda duda y no merece la pena revisar aquí los argumentos que lo demuestran. Y lo mismo para las pruebas de que sobre la mesa no es un argumento del verbo bailar en la segunda.

Lo que parece que ha sobrecogido (indignado en ocasiones) es cómo se analiza la secuencia sobre la mesa. El análisis sugerido como óptimo por la armonizadora es el que podríamos encontrar en cualquier revista científica con índice de impacto y evaluación por pares (o sea, donde se publica la ciencia) aparecida en los últimos cincuenta años: sobre la mesa es un constituyente sintáctico y está formado por una preposición (sobre) y un sintagma nominal (la mesa). Hasta ahí, me atrevo a aventurar, nadie estaría en desacuerdo. Y quien esté en desacuerdo tiene un serio problema de comprensión de qué es un constituyente sintáctico y de qué están hechas las oraciones. Bueno, es cierto que los gramáticos griegos tenían una concepción bastante precaria de cuál era la estructura de la oración (como de cuáles eran los elementos fundamentales). Para ellos las oraciones estaban hechas de palabras. Precisamente por eso, a lo que hoy llamamos clases de palabras ellos lo llamaban meré logou (partes orationis en latín), esto es, partes de la oración. Pero hoy en día eso sería como decir que el cuerpo humano está formado por células (obviamente cierto) ignorando que las células se agrupan antes en órganos. Ningún profesor de anatomía accedería a la cátedra ignorando ese nivel de complejidad estructural intermedio entre el organismo y la célula.

Asumamos pues que carece de sentido negar que sobre la mesa es un constituyente sintáctico y dejemos por imposible al que persista en negarlo. No es ese el motivo de la rebeldía de ese nutrido puñado de docentes airados, sino la propuesta adicional de que el núcleo del sintagma es la preposición, esto es, que sobre la mesa es un Sintagma Preposicional (SP) y no un Sintagma Nominal (SN) con algo delante.

La hipótesis de que el núcleo del SP es la preposición tiene, por supuesto, una motivación teórica (es subsidiaria de la hipótesis de que toda proyección sintáctica es endocéntrica), pero en absoluto se puede considerar contraintuitiva, contraproducente o imposible de explicar en bachillerato, como hemos tenido que leer estos días. Usando un criterio puramente semántico (el más accesible a los estudiantes) decimos que mesa azul es un SN porque denota una mesa y no un color, decimos que vender coches es un SV porque denota una acción y no un objeto con ruedas y decimos que orgulloso de su hija denota un estado y no a una niña. ¿Y qué denota sobre la mesa, una relación o un mueble?

Es difícil encontrar en la bibliografía seria propuestas que cuestionen que sobre la mesa es un constituyente sintáctico, pero, por supuesto, no es tan difícil encontrar propuestas muy respetables en las que se afirma que sobre la mesa es un sintagma exocéntrico, esto es, que no tiene núcleo. Lo malo es que hay que irse muy atrás en la breve historia de la teoría sintáctica: lo más moderno que tengo en casa que diga eso es el venerable Curso de lingüística moderna de Charles F. Hockett… ¡de 1958!

Si habláramos de física, de biología, de matemáticas o de química, una referencia de 1958 se consideraría equivalente al pleistoceno y, desde luego, no se podría usar para acusar a la armonizadora de atribularnos con moderneces efímeras. Es verdad que las ciencias humanas no funcionan igual que las llamadas ciencias naturales, pero, aún así, desde 1958 también ha llovido mucho en la teoría sintáctica.

Sospecho que la idea de que la preposición no es el núcleo sintáctico (ni puede serlo y es una “aberración” decir que lo sea, que también lo he leído) procede de varias fuentes, esencialmente tres: (i) que las preposiciones típicamente tienen menos contenido léxico que los nombres, los verbos y los adjetivos, (ii) que la preposición tiene como función unir cosas entre sí y (iii) que se emplea un criterio distribucional para determinar qué es el núcleo. Los argumentos (i) y (ii) están claramente relacionados y ambos son endebles. En Juan es listo la expresión es listo es un sintagma verbal, aunque ahí el verbo carece de significado. Por su parte, podemos seguir diciendo que la preposición une cosas entre sí y mantener que es el núcleo del SP. Una cosa no está reñida con la otra, al igual que el núcleo del SV es listo es es y su función es relacionar a Juan y a listo.

El núcleo del problema está precisamente en la noción de núcleo. En teoría sintáctica núcleo se entiende (oh sorpresa) como núcleo sintáctico. En un sintagma el núcleo es el elemento que rige complementos y recibe modificadores y es el elemento que determina la categoría sintáctica del conjunto completo. Sin embargo, el criterio que empleaba Hockett (asumiendo la tradición del estructuralismo anterior) para determinar el núcleo era el distribucional: un sintagma tiene como núcleo aquella palabra que podría funcionar ella sola como todo el conjunto (pero nótese que el criterio se basa también en la asunción de que el núcleo “transmite” su categoría al conjunto). Así, el nombre es el núcleo del SN porque un nombre (Juan) puede aparecer en las mismas posiciones que un SN (Juan/el vecino es listo), el adjetivo es el núcleo del SA porque un adjetivo puede aparecer en su lugar (Juan está orgulloso de su hija/cansado) o el verbo es el núcleo del SV porque un verbo puede sustituirlo (Juan come patatas/respira), etc. Pero la preposición no puede sustituir al SP: El libro está sobre la mesa/*sobre). Como la mesa tampoco puede (*El libro está la mesa), entonces se concluye que sobre la mesa es un sintagma sin núcleo (exocéntrico).

Sin embargo, la gramática, en contra de lo que creen algunos, no es como la filosofía, la crítica literaria o la teoría política: es una disciplina empírica (como la física o la química) en la que hay cosas que están bien y cosas que están mal. Hay análisis correctos y análisis incorrectos. El criterio distribucional es simplemente insuficiente para determinar el núcleo sintáctico. Por ejemplo, nos obligaría a decir que dilucidaste el enigma es exocéntrico (y no un SV) porque no se puede sustituir por dilucidaste (*Ayer dilucidaste) o que proclives al odio no es un SA porque no se puede sustituir por proclives (*Los vecinos son proclives). Parece claro que la razón de esas restricciones no tiene que ver con la nuclearidad del verbo o del adjetivo, sino con el hecho estrictamente léxico de que son transitivos y no permiten la omisión del argumento regido. Pues lo mismo sucede con las preposiciones: no pueden sustituir a todo el SP simplemente porque en español todas las preposiciones son transitivas (ocasionalmente alguna permite la elisión, pero es un fenómeno marginal en nuestra lengua: -¿Tienes tabaco? -No, me he quedado sin).

Y la razón por la que las preposiciones son transitivas no tiene que ver con si son o no núcleos, sino con su contenido léxico. Las preposiciones son en realidad muy similares a los verbos. Si hay algo inherente a un verbo es la capacidad de regir argumentos (que luego aparecen como complementos directos, sujetos, etc.). Si imaginamos un verbo con significado léxico simplificado y sin capacidad de tener un sujeto, entonces nos damos de bruces con una preposición. En el resto se parecen mucho. Así, los verbos normalmente rigen como complementos SSNN (Compró una casa), pero los hay que rigen SSPP (Hablaba de política) e, igualmente, las preposiciones normalmente rigen SSNN como complementos (Sin las flores, el famoso “término de la preposición” en la gramática tradicional), pero también las hay que rigen SSPP (Por entre las flores). Los verbos determinan también otras propiedades gramaticales de sus complementos, como el caso (recordemos el latín: video urbem) y las preposiciones determinan el caso de los suyos (decimos *para mí y no *para me o *para yo). Todos sabemos que hay verbos que rigen oraciones como complemento (Decidió que Luisa viniera) y también hay preposiciones que lo hacen (Para que Luisa viniera). De hecho, a veces los verbos determinan el modo del verbo de su complemento oracional (Deseo que vengas/*vienes) y lo mismo pueden hacer algunas preposiciones (Para que vengas/*vienes). [Ejemplos adaptados de los que usan Bosque y Guitérrez-Rexach en su enorme tratado de sintaxis del español de 2009].

Pero nada de eso tendría explicación asumiendo que la preposición es simplemente una especie de elemento de enlace o un nexo, o expresiones similares. Esas caracterizaciones son confusas, incompletas y, digámoslo sin ambages, erróneas, por mucho que aparezcan en los libros de texto. Si no aceptamos que la preposición es el núcleo de su propia proyección (el SP), entonces no solo no podemos explicar todas esas propiedades, sino que estamos hurtando a nuestros alumnos importantes generalizaciones estructurales sobre cómo funcionan realmente las lenguas.

Cabe ahora recordar que el objetivo de la teoría sintáctica no es analizar oraciones, sino revelar la estructura oculta y sistemática que subyace a las secuencias lineales de palabras que emitimos. O lo que es lo mismo, explicar por qué las expresiones lingüísticas complejas significan lo que significan y no otra cosa. Reducir la preposición al papel de elemento de enlace o nexo no solo no contribuye a esa noble tarea, sino que representa un paso atrás.

Ahora bien, cabría preguntarse entonces: ¿por qué los profesores (algunos profesores) de lengua española, a diferencia de sus colegas de física o de biología, se habrían de empeñar en no incorporar a sus programas las innovaciones científicas que se producen en su campo?

Obviamente, no es culpa de los profesores de secundaria de lengua castellana (de lengua española, vamos), es culpa de quienes los hemos formado. Hay un evidente problema con la enseñanza de la gramática en la educación primaria y secundaria, y hay muchas personas trabajando intensamente para mejorar eso (el movimiento GrOC, “Gramática Orientada a las Competencias”, es una de las principales iniciativas en esa dirección), pero los causantes del problema no son los maestros y profesores de Instituto, sino que lo somos los profesores universitarios encargados de la formación de aquellos.

Las preguntas acuciantes entonces son las siguientes: ¿Por qué en las universidades pueden persistir en ciertos ámbitos teorías o modelos ya olvidados en la literatura científica? ¿Cómo es posible que haya profesores y catedráticos de universidad dando vueltas en círculo alrededor de 1958?

He dado a entender al inicio que hay una diferencia según si hablamos de ciencias naturales o de “ciencias humanas”, y es obvio que ahí radica parte al menos de la explicación. Por supuesto, no creo realmente que la lingüística o la teoría gramatical sean ciencias de pacotilla, pero es inevitable esa conclusión a la vista de lo que estoy contando. Escribí un largo y denso libro (Gramática natural, disponible aquí) argumentando que la teoría gramatical, la gramática, es una ciencia natural como la física o la biología, pero no soy tan ingenuo como para pensar que las cosas funcionan igual en el campo de las humanidades y en el de las ciencias naturales, aunque solo sea porque la teoría gramatical forma parte en realidad de la ciencia cognitiva, un ámbito en el que el peso de la teoría y la especulación frente a los hechos empíricamente observables con un microscopio o un acelerador de partículas es todavía demasiado grande.

Pero tampoco es ajeno a este problema el arrinconamiento del estudio y la enseñanza de la gramática que se ha producido en los departamentos de Lengua Española y de Lingüística en la Universidad española (aunque no exclusivamente) en los últimos decenios, en beneficio de otras aproximaciones al lenguaje y las lenguas, tales como la pragmática, la sociolingüística, el estudio del léxico, la historia de las lenguas, el estudio de la variación lingüística, etc. Todas ellas son aportaciones relevantes y necesarias, pero no deberían desplazar al núcleo esencial de la ciencia del lenguaje: la teoría gramatical.