Archivo del autor: José-Luis Mendívil

¿Por qué hay tantas lenguas y tan distintas, si es que lo son?

[El presente texto es una versión en español de uno que se publicará en inglés en una revista que tiene una sección de Ciencia para mentes jóvenes. Aunque ZL se dirige a adultos, me ha parecido que el tono divulgativo lo hace apropiado. Además, se agradecen comentarios que me ayuden a hacerlo más comprensible y atractivo para mentes de 10-12 años]

Hace unos años, el Smithsonian’s National Museum of the American Indian organizó en California una exposición en homenaje a los llamados code talkers. La expresión code talkers se refiere al pequeño grupo de nativos navajos (y de otras etnias) que el ejército estadounidense empleó en la batalla del pacífico para codificar sus mensajes. El navajo, una lengua natural usada como sustituto del código de cifrado para las órdenes en inglés, resistió todos los intentos de descifrarlo de los expertos criptógrafos japoneses y contribuyó al desenlace favorable (a los EEUU) en la segunda guerra mundial.

Algunos lingüistas han interpretado este episodio como una interesante paradoja (una contradicción) relacionada con uno de los asuntos centrales de la ciencia del lenguaje: la tensión entre, por un lado, la diversidad evidente entre las lenguas y, por el otro, la unicidad del lenguaje humano como facultad común y específica de la especie. La paradoja reside en que, por una parte, el navajo parece ser una lengua extremadamente distinta del inglés (y del japonés), dado que los experimentados espías japoneses no pudieron descifrarlo (a diferencia de lo que hicieron con otros códigos artificiales), mientras que, por otra parte, el navajo tiene que ser también muy parecido al inglés, pues en caso contrario los intérpretes navajos no podrían haber transmitido con precisión las órdenes proporcionadas en inglés por sus mandos.

En efecto, tenemos razones claras para pensar que las lenguas humanas son muy diferentes. La prueba más evidente es que, normalmente, hablar una lengua concreta (por ejemplo el inglés) no te permite hablar y entender otras (por ejemplo el español o el ruso). Pero, por otra parte, también sabemos que el lenguaje es una propiedad común a todas las personas: todo lo que se dice en una lengua se puede traducir a otra y cualquier niño recién nacido puede aprender cualquier lengua del mundo con la misma facilidad.

¿Cómo podemos explicar esta contradicción? ¿Qué nos dicen estos hechos contradictorios sobre la naturaleza del lenguaje humano? Lo primero que necesitamos entender es por qué hay diferentes lenguas, esto es, por qué no hay una única lengua para todos los seres humanos. La sorprendente respuesta que dio uno de los lingüistas más importantes de la historia, Noam Chomsky, es que, en realidad, si un científico marciano examinara a nuestra especie concluiría que los seres humanos hablan todos las misma lengua. (No te preocupes, ¡sabemos que los científicos marcianos no existen!). Lo que Chomsky pretendía con esa afirmación es que nos situemos fuera de nuestra propia lengua, que nos es tan íntima y familiar, y que adoptemos un punto de vista más general, exactamente igual que como cuando analizamos los sistemas de comunicación de otras especies, como las ballenas o los pájaros. Como humanos, observamos que cada especie natural (ballenas azules, chimpancés, pájaros carpinteros o abejas) tiene un único sistema de comunicación, y no un montón de ellos. Y, en general, así es. Cada especie viene equipada con un sistema de comunicación propio que está biológicamente determinado. Eso implica que los individuos no lo tienen que aprender, sino que forma parte de su naturaleza, como las aletas, el pelo, el pico o el instinto de buscar polen. Y por esa razón el sistema de comunicación es el mismo para todos los miembros de la especie: si eres una ballena azul “hablas” como una ballena azul, no como una abeja.

‘¿Por qué habría de ser nuestra especie diferente?’ parece preguntarse Chomsky. Nótese que Chomsky y otros afirman que nuestra especie no es diferente porque se centran en la unidad del lenguaje humano, esto es, en el lenguaje como una propiedad específica de la especie humana, independientemente de las diferencias entre lenguas como el inglés y el japonés. Pero, claro, esa no puede ser toda la historia. Es un hecho que hay unas 6.000/7.000 lenguas diferentes en el mundo, esto es, unas 6.000/7.000 formas de hablar diferentes y que no permiten la mutua comprensión entre sus hablantes. De hecho, otros lingüistas, aquellos que se fijan más en las lenguas que en el lenguaje, han concluido que “languages can differ from each other without limit and in unpredictable ways” (Joos 1957: 96). Y también estos estudiosos tienen razón, al menos en parte.

¿De dónde salen todas esas lenguas si los humanos tienen todos el mismo lenguaje? Para responder esta pregunta tenemos que fijarnos con un poco más de detalle en el ‘lenguaje’ de otros animales, como las ballenas o los pájaros. Los etólogos (los que estudian en comportamiento de los animales) han observado que hay sutiles diferencias en los cantos de diferentes grupos de ballenas de la misma especie y en los cantos de diferentes grupos de pájaros de la misma especie. Así, muchos pájaros no se limitan a imitar el canto de los adultos, sino que producen ciertas innovaciones que hacen que las canciones que usan no sean idénticas a las que oyeron mientras se desarrollaban. Esto hace que sucesivas generaciones de pájaros oigan canciones ligeramente diferentes a las de la generación anterior, lo que tiene como resultado que los pájaros de la misma especie de diferentes regiones cantan canciones ligeramente distintas.

Pero esto no es muy diferente de lo que pasa con las lenguas humanas: todos tenemos la experiencia de haber comprobado que, incluso dentro de lo que consideramos una misma lengua, hay gente que habla de manera distinta, por ejemplo personas que residen en diferentes lugares de un mismo país suelen usar algunas palabras diferentes o pronunciar ciertos sonidos de manera diferente (es lo que los lingüistas llaman dialectos, esto es, diferentes maneras de hablar una misma lengua). Es importante señalar ahora que la diferencia entre dialectos y lenguas no es una diferencia de clase, sino una cuestión de grado de semejanza entre formas diferentes de hablar. Así, consideramos que dos formas distintas de hablar inglés son dos dialectos de una misma lengua (el inglés) porque esas formas se parecen mucho entre sí (normalmente sus usuarios se entienden mutuamente), mientras que consideramos que la forma de hablar de un inglés y la forma de hablar de un francés no son dialectos de la misma lengua sino de lenguas distintas porque esas formas se parecen mucho menos (y normalmente sus usuarios no se entienden mutuamente). Podría decirse que los usuarios de sistemas animales como el de las ballenas o los pájaros solo tienen ‘dialectos’ porque el margen de variación en el lenguaje animal es muy reducido, mientras que los usuarios del lenguaje humano no solo tienen dialectos, sino también ‘lenguas distintas’ (esto es, dialectos no inteligibles mutuamente) porque el margen de variación en el lenguaje humano permitido por la biología es mucho mayor que en el lenguaje animal.

La cuestión a responder, entonces, es por qué el lenguaje humano permite mucha más variación que el lenguaje animal. La respuesta tiene que ver con el tipo de animales que somos los seres humanos. Por supuesto, somos animales (no ángeles o espíritus), y como tales animales tenemos un lenguaje propio de nuestra especie, común a todas las personas y muy distinto del de otras especies. De ahí que se pueda decir que, a pesar de las diferencias entre lenguas, todos los seres humanos tenemos el mismo lenguaje. Pero, por otra parte, somos animales especiales, en el sentido de que estamos muchísimo más capacitados que los demás para aprender del entorno y desarrollar y transmitir cultura. Los seres humanos tenemos un periodo de crecimiento y aprendizaje mucho más largo que el resto de animales. Nacemos inmaduros (probablemente por el gran tamaño de muestra cabeza) y la naturaleza nos ha dotado de una increíble capacidad de aprender. Además, nuestro lenguaje es mucho más complejo y versátil que el de las otras especies, y por ello tenemos que pasar los primeros años de nuestra vida usando la interacción con nuestros semejantes para que el lenguaje se desarrolle plenamente.

Ya hemos visto que en buena parte del resto del reino animal el lenguaje propio de cada especie está biológicamente determinado y sus usuarios no tienen que aprenderlo del entorno. En esos casos no hay dialectos (ni, por supuesto, lenguas). Algunas especies, como las ballenas o ciertas aves, tienen una cierta capacidad de aprender partes del lenguaje del entorno (dentro de una clara limitación impuesta por la biología de cada sistema) y ello provoca que puedan surgir dialectos en individuos que viven en zonas diferentes. El caso de los animales humanos es una versión mucho más acentuada de estos últimos ejemplos. La naturaleza nos ha diseñado para tener que aprender del entorno una buena parte de nuestro lenguaje, lo que tiene como consecuencia que no solo es normal que surjan dialectos diferentes, sino que éstos se diferencien tanto unos de otros con el paso del tiempo y el aislamiento de los grupos humanos que acaben dando lugar a lenguas distintas. De hecho, lenguas tan diferentes como el inglés, al alemán, el noruego o el islandés no hace mucho eran diferentes dialectos de una misma lengua, que los lingüistas llaman proto-germánico.

dogsPero ello no implica que las diversas lenguas humanas no compartan un conjunto esencial de rasgos de diseño propios de nuestra especie. Para hacernos una idea de cómo puede ser esto, pensemos en las distintas variedades o razas de los perros. Como puede apreciarse en la figura 1, los distintos individuos de la foto son muy diferentes en color, tamaño, tipo de pelo, forma de la cabeza y de las orejas, etc. Pero todos ellos son perros, y no hay algunos que sean más o menos perros que otros. A todos ellos subyacen propiedades comunes internas que los definen como una clase natural, aunque muestren una exuberante diferencia en sus rasgos superficiales.

childrenO consideremos la imagen de la figura 2. Todos son niños de la misma especie, aunque es cierto que tienen rasgos superficiales distintos (como el color del pelo, el tono de la piel o el color de los ojos). La cuestión importante ahora es: ¿cuántas sonrisas diferentes hay en la foto? Solo una. Una sonrisa humana.

Las lenguas parecen diferentes, pero como son variaciones de una misma facultad del lenguaje, podemos decir que todas ellas sirven para las mismas funciones, tienen el mismo grado de desarrollo y merecen el mismo respeto.

Anuncios

¿Por qué es importante Chomsky?

Chomsky-youngEl 7 de diciembre de 2018, Noam Chomsky cumple 90 años. No quiero ser ajeno a semejante aniversario de mi héroe intelectual y me gustaría aprovechar la ocasión para explicar en términos comprensibles (es decir, accesibles a quienes no están inmersos en la jerga de la lingüística generativa) por qué este hombre es tan importante, no solo para la lingüística, sino para la ciencia cognitiva en general. Y no solo para los generativistas, sino para todos los estudiosos del lenguaje y de la mente humana.

El problema es que hay mucha gente que lo conoce y lo comprende mucho mejor que yo y ya lo ha explicado antes maravillosamente. Me daban ganas de ahorrarme el trabajo y simplemente copiar algunas páginas escritas por Neil Smith en su excelente libro Chomsky: Ideas and Ideals de 1999, pero me conformaré con incluir en mi texto algunas citas largas, con la esperanza de que animen a volver a esa más completa presentación de nuestro personaje, sus ideas y sus ideales. [Las citas de Smith están tomadas de traducción al español].

¿Por qué es Chomsky tan importante? En mi opinión, la principal aportación de Chomsky a la lingüística moderna, y que ciertamente transciende esta disciplina, es el haber introducido en un contexto moderno y científico una visión de la mente y la cognición humanas opuesta al empiricismo originado por Hume y Locke. Según ese punto de vista, la mente es una especie de ‘pizarra en blanco’ (tabula rasa) y la experiencia escribe en esa pizarra dando forma a los sistemas de conocimiento. La mente, así, es un reflejo de las regularidades estadísticas del mundo externo en el que se desarrolla. Pero el trabajo de Chomsky sobre la sintaxis de las lenguas humanas vino a poner de manifiesto que este modelo era clamorosamente insuficiente para explicar cuál es la estructura de las lenguas y cómo es posible que los niños las adquieran. Lo que vino a mostrar ya en sus primeros trabajos es que los hablantes saben mucho más de lo que han podido aprender a partir de los estímulos lingüísticos del entorno. Por así decirlo, Chomsky descubrió que hay una estructura computacional compleja e interna subyacente a las secuencias lineales de palabras de la gramática tradicional, y argumentó, en contra de la visión imperante en el momento, que el origen de esa estructura está en el propio cerebro, y no fuera del mismo. El lenguaje se convertía entonces en una especie de ‘objeto natural’, un atributo de nuestra especie (seguramente resultado de la evolución natural) que merecía ser estudiado como cualquier otro objeto de estudio de la ciencia natural.

Tal y como lo formula Smith, y creo que no se puede explicar mejor en un solo párrafo, Chomsky es importante porque “ha demostrado que en realidad hay un único lenguaje humano: que la inmensa complejidad de las incontables lenguas que oímos a nuestro alrededor no pueden ser otra cosa que variaciones sobre un único tema. Ha revolucionado la lingüística, y al hacerlo ha introducido un zorro en el gallinero filosófico. Ha resucitado la teoría de las ideas innatas, ha demostrando que una parte considerable de nuestro conocimiento está determinada genéticamente; ha rehabilitado ideas racionalistas con siglos de antigüedad, pero que habían caído en el descrédito; y ha aportado pruebas de que el ‘conocimiento inconsciente’ es lo que subyace a nuestra capacidad de hablar y de entender. Ha contradicho a la escuela del conductismo, dominante en el ámbito de la psicología, y ha restituido el protagonismo de la mente en el estudio del ser humano. En pocas palabras: Chomsky ha cambiado nuestra forma de pensar en nosotros mismos, labrándose un lugar en la historia del pensamiento a la altura de Darwin y de Descartes. Y lo ha hecho mientras dedicaba la mayor parte de su tiempo a la disidencia y al activismo político: documentando las mentiras del gobierno, sacando a la luz las influencias ocultas de los grandes negocios, desarrollando un modelo de orden social y ejerciendo de conciencia de Occidente.”

De lo sorprendente y singular de su vasta y ambivalente influencia habla la siguiente anécdota: se cuenta que en uno de los primeros viajes que Noam hizo a Polonia (Chomsky es un apellido relativamente común en ese país), algunos de sus anfitriones simplemente no podían creerse que el Chomsky lingüista era la misma persona que el Chomsky activista anarquista. Algo parecido se cuenta del otro gran lingüista de la historia, Ferdinand de Saussure. Cuando un joven Ferdinand se presentó en la Universidad de París como el nuevo profesor de Lingüística Indoeuropea, algunos profesores parisinos le preguntaron si acaso era hijo del gran lingüista suizo Saussure, el autor de la Mémoire sur le système primitif des voyelles dans les langues indo-européennes, que en realidad era su tesina de licenciatura.

Entre los personajes más influyentes de este siglo, afirma Smith, “figuran personalidades tan dispares como Einstein, Picasso y Freud, y con todos ellos Chomsky tiene algo en común: como Freud, pero con mayor rigor intelectual, ha cambiado el concepto que teníamos sobre la mente; como Einstein, combina la intensa creatividad científica con el activismo político radical; como Picasso, ha puesto patas arriba sus propios principios con asombrosa frecuencia.”

De hecho, en el Arts and Humanities Citation Index (entre 1980 y 1992) Chomsky fue citado 3,874 veces, lo que lo convierte en la persona viva más citada en ese periodo y la octava incluyendo a los ya muertos. La lista completa de los diez primeros (en orden de citas acumuladas) es elocuente sobre su influencia: Marx, Lenin, Shakespeare, Aristóteles, la Biblia, Platón, Freud, Chomsky, Hegel y Cicerón. Paro además, en el mismo periodo, aparece citado otras 1.619 veces en el Science Citation Index.

Chomsky-RussellSmith y otros destacan la similitud entre Chomsky y Bertrand Russell, quien en una de sus primeras obras, Principia Mathematica, redefinió los cimientos de las matemáticas, y dedicó gran parte de su vida al activismo político. En efecto, Chomsky ha dicho alguna vez que Russell es una de las pocas personas a las que realmente admira y (como se muestra en la foto) un gran póster del matemático británico presidía su mítico despacho en el MIT. De manera similar, Chomsky introdujo con sus primeras obras publicadas (Estructuras sintácticas, de 1957 y Aspectos de la teoría de la sintaxis, de 1965) una auténtica revolución en la lingüística y en la ciencia cognitiva.

Como he señalado, lo que hace revolucionaria la aportación inicial de Chomsky, lo que permite que podamos considerarlo uno de los fundadores de la ciencia cognitiva, es que mostró que una gramática no es una descripción más o menos sistemática de una lengua, sino que es una teoría de una lengua, y, como tal, dicha teoría está sujeta en su construcción y en su evaluación a las mismas restricciones y principios que cualquier otra teoría científica. Otro logro central y revolucionario, incontestable, de Chomsky fue situar la sintaxis en el centro de la teoría lingüística. Y la sintaxis está relacionada con uno de los rasgos centrales y definitorios del lenguaje y del pensamiento humanos: la creatividad.

Algunos autores (véase la introducción a Otero ed. 1994) consideran que la ciencia cognitiva nació el 11 de septiembre de 1956. Se eligió esa fecha porque ese día se presentaron tres ponencias cruciales en un simposium sobre Teoría de la Información en el MIT: una de Herbert Simon y Allen Newell sobre resolución de problemas (la demostración de un teorema de los Principia Mathematica usando un ordenador), el artículo legendario de George A. Miller sobre los límites de la memoria a corto plazo y, por supuesto, la propuesta de Chomsky “Three models for the description of language”. En dicho artículo, un Chomsky de 27 años (aunque el texto data de varios años antes), demostró que la expectativa de generar el lenguaje humano con un autómata de estados finitos (básicamente uno que opera con relaciones lineales entre palabras y estadística) era infundada, lo que venía a socavar el modelo matemático del lenguaje sobre el que se asentaba la lingüística estructural y conductista anterior.

El efecto central de esta aproximación chomskiana al lenguaje fue mostrar que el comportamiento lingüístico implica el uso de un conocimiento del lenguaje, y que dicho conocimiento no se plasma o realiza de manera directa en el comportamiento. Se plantea entonces, como señala Otero, un problema de complejidad cualitativo y no cuantitativo: la única salida del atolladero era entonces postular un nivel abstracto de ‘mente’ como un principio explicativo (un poco como Newton había postulado la gravedad) y proceder a estudiar sus propiedades y organización. Lo que impulsó Chomsky fue, por tanto, un cambio radical de perspectiva en la ciencia cognitiva: del estudio del comportamiento y de los resultados del comportamiento, al estudio de los sistemas mentales de computación y representación. La consecuencia directa es que entonces el estudio de la mente/cerebro (recuérdese que la mente es una visión abstracta del cerebro) se puede hacer sin apartarse del método estándar de las ciencias naturales.

La influencia de Chomsky se ha extendido más allá de tres campos en los que ha tenido un impacto profundo (la lingüística, la filosofía y la psicología), tales como la antropología, las matemáticas, la música, la educación, la crítica literaria o la teología (!). En todo caso, como señala Smith “su obra en estos campos [lingüística, filosofía y psicología] ha sido siempre innovadora y controvertida”. Es cierto que en las tres áreas ha sido profusamente malinterpretado y uno de los objetivos del libro de Smith es precisamente explicar por qué se le ha adulado y a la vez se le ha vilipendiado tanto. En algunos casos, según el autor, es tarea sencilla: las ideas preconcebidas que causan los malentendidos son fácilmente detectables. Pero en otros casos es más difícil “comprender tanta hostilidad”. Aunque Smith no lo sugiere, no son pocos quienes creen que sus ideas políticas son a veces la explicación de los furibundos ataques, pero eso no lo puede explicar todo. Como ha dicho en alguna ocasión el propio Chomsky, quizá sea que ¡el empiricismo es innato!

La obra de Chomsky es amplísima: ha publicado cerca de un centenar de libros -aunque es cierto que se repite mucho- y cientos de artículos y capítulos, además de haber escrito decenas de miles de cartas. Como dice Smith, “su dominio de una enorme cantidad de campos es abrumador: cuestiones de actualidad de todo el mundo, política, historia, lingüística, filosofía, psicología, matemáticas… Quedan pocos campos de los que Chomsky no tenga conocimiento. Lograr esta maestría en tantos campos requiere ‘fanatismo’ y, como él mismo dice, capacidad y entrega para ‘trabajar como un loco’. También requiere un enorme valor, una entrega inagotable y la renuncia al tiempo libre. Él mismo escribió: ‘Hace falta tener un ego muy grande para soportar el hecho de estar diciendo algo distinto de lo que dice el resto de la gente’. Chomsky considera que su aportación es ‘pre-galileana’, aunque Berlinski probablemente tiene razón cuando lo considera ‘tan grande como Galileo’. A finales del siglo XVI, Galileo fundó el método experimental que sostiene a toda la ciencia moderna; a finales del siglo XX, Chomsky está considerado el autor de la revolución cognitiva que comienza a ampliar ese método al estudio de la mente.”

Pero como también señala Smith, no todos comparten esta positiva valoración de su figura: “el filósofo Richard Montague lo ha llamado ‘uno de los grandes fraudes de la ciencia del siglo XX’ (el otro era Einstein, de modo que al menos está en buena compañía); lo han tachado de ‘oportunista… que aplaude la corrupción y hace apología de la indiferencia del gobierno frente a protestas contra la guerra y el colonialismo’; lo han llamado ‘el gran chiflado americano’ y lo han acusado de estar ‘fuera de los límites de la responsabilidad intelectual’. Ha sido encarcelado varias veces por su activismo político y con frecuencia ha sufrido amenazas de muerte. Una polarización de opiniones tan marcada requiere una explicación, y una de las razones por las que [Smith escribió su libro] es precisamente para sentar las bases de esa explicación.”

Smith admite (sin rubor) que Chomsky es su héroe intelectual (aunque no siempre esté de acuerdo con él). También lo es el mío, no solo por la enorme influencia intelectual que ha ejercido en todo lo que (mejor o peor) he hecho en mi carrera, sino porque también es un modelo de vida.

En un reciente artículo, Bruce E. Levine sostiene que una de las claves que explican que un activista anarquista haya llegado a los 90 años sin renegar de sus ideas y sin desmayo, incluso sobreponiéndose a la típica autodestrucción de muchos de sus colegas de lucha, está en haber sabido digerir la rabia y vivir armónicamente. En palabras de Chomsky, que Levine cita: “Mira, no vas a ser efectivo como activista político a menos que tengas una vida satisfactoria”. Aunque Levine no lo sugiere, creo que se podría afirmar que una clave esencial para esa vida satisfactoria de nuestro héroe no ha sido solo tener un buen puesto en una Universidad fantástica y un barquito en el que navegar por un lago, sino, sobre todo, haber tenido una increíble carrera científica, con una influencia en su ámbito sin parangón en la ciencia actual.

Como señala Smith, “a pesar de su capacidad para derribar los edificios que él mismo ha creado, sus compromisos morales y los fundamentos intelectuales de su obra tienen un carácter atemporal que claramente se remonta a su infancia.” Según Smith,  tanto en lingüística como en política, sorprende la capacidad de Chomsky para llegar hasta el fondo de cada asunto y para sacar de él “lo que hay de defendible y constructivo y desechar cuanto tiene de deshonesto, inmoral o irracional”, y por ello lo compara, en el espíritu y en los logros, con Darwin, quien escribió a su amigo y mentor Henslow:

“Creo que existe, y siento dentro de mí, un instinto que me guía hacia la verdad, o hacia el conocimiento o el descubrimiento, de la misma naturaleza que el instinto de la virtud, y creo que el hecho de que tengamos ese instinto es razón suficiente para las investigaciones científicas insulso si nunca se deriva de ellas ningún resultado práctico” (Darwin, citado por Neil Smith)

Y, en efecto, la palabra verdad aparece en el origen de sus dos dedicaciones esenciales. Cuando define lo que debe ser el periodismo político, sentencia escuetamente: ‘descubre la verdad y cuéntala’. Cuando define el objetivo de la lingüística se refiere a ‘descubrir la verdad acerca del lenguaje’.

Como sucedió con Darwin, sabemos que ha habido una revolución chomskiana no porque todos los lingüistas sean chomskianos (nada más lejos de la realidad), sino porque todo lingüista que quiera encontrar un consenso sobre una nueva teoría del lenguaje tiene que demostrar que la suya es mejor que la de Chomsky. No hay mejor prueba de que Chomsky cambió la lingüística y la ciencia cognitiva para siempre.

Lenguaje, Creatividad y Movimientos Sociales

Ya está disponible el vídeo de la última charla de ZL, ofrecida el pasado 26 de noviembre en el Salón de Actos de la Biblioteca María Moliner por la Dra. Manuela Romano (Universidad Autónoma de Madrid).

Una ecuación para la lingüística (¡por fin!)

Los lingüistas solemos ser envidiosos de la física. Nos encanta presumir frente al resto de practicantes de las llamadas humanidades de hacer una ciencia natural empírica que usa el método hipotético deductivo (algunos hemos escrito pesados tratados intentando demostrar eso). Pero, a la vez, sabemos que las cosas en lingüística (como suele suceder en general en las ciencias cognitivas) son muy diferentes de como lo son en física, en química e incluso en biología. Nuestros objetos de estudio son mucho más elusivos y abstractos, las pruebas de su existencia más alambicadas y nuestra capacidad de observación y medición mucho más limitada e indirecta que en las llamadas ciencias duras.

Una de las carencias de nuestra ciencia frente al espejo de la física es que nuestras teorías no se formulan matemáticamente con ecuaciones (la biología también cojea en eso, pero hace tiempo que ha hecho sus pinitos). Quizá por eso Ernst Rutherford decía que la ciencia, o era física, o era coleccionar sellos.

Pero en los últimos años el lingüista Charles Yang (formado como informático en el MIT y ahora profesor en la Universidad de Pensilvania), especialista indiscutible e influyente en el estudio de los mecanismos de adquisición del lenguaje, nos ha proporcionado una bella ecuación que, a diferencia de otras (como la famosa ley de Zipf), sí nos permite conocer mejor algunos aspectos de la facultad del lenguaje. Aunque la ecuación de Yang aparece en varios artículos previos, la presentación más completa y redonda de su modelo aparece en el excelente libro The Price of Linguistic Productivity de 2016, justamente galardonado con el premio Bloomfield de la Linguistic Society of America de este año.

Antes de entrar en detalles, conviene recordar que una ecuación expresa una igualdad matemática entre dos expresiones y que la ciencia las utiliza para enunciar leyes de forma precisa. La ecuación que nos ocupa no tiene la belleza y relevancia de otras tan célebres como las de Newton, Maxwell, Einstein o Schrödinger, pero aun así tiene una importancia capital para la ciencia del lenguaje, especialmente para nuestra mejor comprensión de cómo es posible que los niños de entre cero y cuatro o cinco años sean capaces de descubrir reglas productivas en su lengua sobreponiéndose a numerosas excepciones y a una exposición incompleta y no sistemática a los datos necesarios (o sea, lo que Chomsky denominaba el problema de Platón: cómo sabemos tanto con tan poca información).

La ecuación de Yang expresa lo que él denomina el principio de tolerancia y, en términos simples, establece con sorprendente precisión cuál es el umbral de tolerancia a las excepciones que los mecanismos de adquisición del lenguaje del niño son capaces de soportar para poder inducir una regla productiva.

No cabe ninguna duda de que los niños están especialmente dotados para la búsqueda de regularidades en el input lingüístico que les rodea (de forma más pedante, decimos que intentan construir la gramática más eficiente para entender y usar la lengua del entorno). Pero esa es una tarea cognitiva que dista de ser sencilla, especialmente cuando las reglas deben inducirse a partir de una muestra limitada. Así, si de comer tenemos como y de beber tenemos bebo, no es extraño que, aunque nunca lo hayan oído antes, de romper los niños produzcan rompo. Parece que han detectado que los verbos de la segunda conjugación en español hacen la primera persona del presente de indicativo añadiendo -o a la raíz (en este caso el resultado de quitar –er al infinitivo). El problema es que junto a bebocomo o rompo, también están en el entorno del aprendiente quepo (de caber), sé (de saber), tengo (de tener), muerdo (de morder), traigo (de traer) o he de haber, todos ellos ejemplos que desacreditan la hipótesis de que el presente se forma simplemente añadiendo –a la raíz del verbo, esto es, todos ellos formas irregulares. La pregunta que se plantea Yang (siguiendo una vastísima tradición de discusión y controversia en ese ámbito, normalmente en torno a los verbos irregulares en inglés) es cómo se las arregla el niño para formular una regla productiva.

Podría parecer una pregunta ociosa: dado que las formas regulares son mucho más abundantes que las irregulares, simplemente se impone el patrón más común, esto es, el regular. Pero las cosas no son así en absoluto: el niño no tiene acceso a un número ilimitado de datos ni, por supuesto, acceso a corpus y herramientas computacionales que le permitan llegar a esa conclusión. Más bien al contrario, como ha mostrado Yang analizando detalladamente el input que reciben los niños y sus propias producciones, la exposición que tienen a los datos es incompleta y necesariamente reducida. De hecho, aunque los verbos irregulares son, por definición, menos abundantes que los regulares, resulta que su uso es mucho más frecuente que el de los regulares (por ello precisamente se mantienen como irregulares, porque se usan mucho y se aprenden muy pronto). Piense el lector en los verbos ser, tener o haber (por no salir de la segunda conjugación) y verá que esto es así sin necesidad de hacer estadística.

Pero, por supuesto, en el input del niño debe haber un número suficiente de ejemplos regulares para que se estimule la formación de la regla. ¿Cuál es ese número? O mejor planteado: ¿a cuántas excepciones o ejemplos irregulares es capaz de sobreponerse el niño para construir una regla productiva?

Aquí es donde entra el principio de tolerancia, expresado en la ecuación mencionada. Veámosla en todo su esplendor:

Yang-1

Aunque esta fórmula puede resultar opaca para los no informados (incluido quien suscribe), lo que el principio de tolerancia predice es lo siguiente: para que una regla R sea productiva, el número de excepciones (e) tiene que ser igual o menor que el número expresado por la función N/LnN, donde N es el número total de ejemplos del input (incluyendo las excepciones) y donde Ln es el logaritmo neperiano. La ecuación establece pues, con precisión, cuántas excepciones dentro del número total de ocurrencias puede tolerar nuestro instinto de formular una regla productiva.

Otra forma de entenderlo es considerar que, aunque una regla productiva es más eficiente que la memorización de cada forma (como parece de sentido común, pues en caso contrario no existiría la conjugación verbal), la regla sólo se formulará si la recompensa por ello hace a la gramática más eficiente que con la memorización de cada forma. Nótese que una vez formulada la regla en la gramática interna del niño, dicha regla tendrá que aplicarse a las formas no memorizadas como irregulares. Pero para saber si un verbo es o no irregular, el niño deberá repasar los verbos irregulares memorizados. Si la lista de verbos irregulares es muy larga, entonces ya no tendría ventaja computacional formular la regla productiva. La fórmula de Yang determina con sorprendente precisión cuál es esa longitud crítica de la lista a partir de la cual los niños formulan las reglas productivas (y también explica, por supuesto, cuándo no lo hacen).

Yang (2016) recoge una impresionante cantidad de estudios empíricos reales de adquisición de morfología, fonología y sintaxis en diversas lenguas en los que la fórmula funciona con precisión matemática. Para no cansar al lector, me centraré solo en el caso estrella, la formación del pasado en inglés. Imaginemos que un niño que está adquiriendo el inglés conoce 120 verbos irregulares (esto es e=120), que son más o menos los que Yang encuentra en el corpus CHILDES de inglés dirigido a los niños, de unos cinco millones de palabras. Con la fórmula en cuestión podemos inferir que entonces N (el número total de verbos sumando regulares e irregulares que tiene que saber el niño) es de 800. Eso implica que para que un niño produzca la regla de formación regular del pasado en inglés (toscamente, añadir –d) debe conocer al menos 680 verbos regulares. Y así es, en efecto: el corpus mencionado contiene unos 900 verbos regulares conjugados según la regla “añadir –d”. Y es precisamente en ese momento cuando los niños que están aprendiendo inglés dan con la regla y la empiezan a aplicar productivamente (incluso erróneamente a los verbos irregulares, exactamente como cuando los niños que aprenden español dicen cosas como cabosabo, etc.). Hasta el momento en el que se alcanza ese umbral crítico de tolerancia, los niños son conservadores y se limitan a repetir las formas que oyen, esto es, operando solo con memorización asociativa. Los niños que dicen cabo o sabo (palabras que no han podido memorizar previamente) ya han superado el umbral crítico y han dejado de memorizar palabras innecesariamente y han pasado a confiar en las reglas productivas. Y por eso conjugan perfectamente verbos que nunca habían oído antes.

En la siguiente tabla, adaptada de Yang, vemos algunos ejemplos concretos de aplicación de la fórmula que nos permitirán captar otra propiedad notable del principio de tolerancia:

N θN %
10 4 40.0
20 7 35.0
50 13 26.0
100 22 22.0
200 38 19.0
500 80 16.0
1.000 145 14.5
5.000 587 11.7

En la primera columna tenemos el número total de casos (N) y en la segunda el resultado de la función N/LnN, que define el umbral de tolerancia (recuérdese, el número de excepciones, e, debe ser igual o menor que ese número). Es llamativo observar la tercera columna, que expresa el porcentaje de excepciones a la regla que tolera cada caso. Nótese que esa proporción no es constante, sino que depende del tamaño de N: cuanto menor es N, mayor porcentaje de excepciones se tolera. Así, para N=10 se toleran hasta un 40% de casos irregulares, mientras que para N=5.000 solo un 11,7%. Esto es muy notable.

De hecho, es muy tentador interpretar esto como una adaptación para la adquisición temprana del lenguaje, esto es, para explicar cómo es posible que las reglas productivas como las que hemos revisado someramente se obtengan a la edad de 2-3 años, cuando la experiencia vital y el tamaño del input recibido es necesariamente restringido. Podría decirse que la facultad del lenguaje no solo está diseñada para aprender la gramática más eficiente posible a la vista de los datos, sino también para aprovechar la ventana de oportunidad definida por el periodo crítico para la adquisición del lenguaje. Como dice Yang, en ocasiones como esta, menos es más. El principio de tolerancia permite que los cerebros en maduración (cuando realmente pueden adquirir la lengua materna de forma plena) puedan sobreponerse al input reducido que necesariamente va asociado a la corta edad.

En un trabajo posterior Yang (2017) ha ido más lejos y ha propuesto que la capacidad humana de contar hasta el infinito (instanciada en la llamada función sucesor) tiene una base lingüística, algo ya sugerido por Chomsky (2007) al relacionar la operación Merge que está en la base de la sintaxis con dicha función. Yang postula que la función sucesor se desarrolla en los niños a la vez que se desarrolla la adquisición del léxico numérico, esto es, a la vez que se desarrolla el sistema morfosintáctico que nos permite construir productivamente palabras para el número siguiente.

En lo que ahora nos interesa, de nuevo el principio de tolerancia hace predicciones sorprendentes. Revisando la bibliografía al respecto, Yang observó que en los estudios sobre la capacidad de contar de niños de lengua inglesa hay un salto cualitativo a partir de 72, esto es, que los niños desarrollan su capacidad en diversas fases, lentas y con regresiones, pero que una vez que saben contar hasta 72 ya no hay un límite superior (esto es, han dado con la función sucesor).

Pero ¿por qué 72? La respuesta, claro, está en el principio de tolerancia. Consideremos los primeros cien números en inglés (abreviando y escribiendo con letras las palabras irregulares y con cifras las regulares):

one two three four five six seven eight nine ten eleven twelve thirteen 14 fifteen 16 17 18 19 twenty 21 22 23 24 25 26 27 28 29 thirty 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 fifty 51 52, etc…

Hay un total de 17 formas no predecibles que hay que aprender de memoria (el resto se forman componiendo sobre estas, como por ejemplo twenty-nine para 29), lo que permite predecir aplicando el principio de tolerancia que si es 17, el menor valor para N es 73, por lo que si un niño aprende a contar en inglés hasta 73 ya no tendrá límites. Señala Yang que en una lengua más regular, como el chino, solo los primeros 12 números tienen que aprenderse de memoria, por lo que un niño aprendiendo chino será capaz de contar sin límite una vez que haya adquirido 46 palabras numéricas, lo que de hecho da cuenta de la previamente observada mayor precocidad en la capacidad de contar de los niños que hablan chino frente a los que hablan inglés.

Está claro que todo esto no equipara a la teoría lingüística con la física en cuanto al uso de las matemáticas y la capacidad de predicción, pero es inevitable no reconocer que es un paso adelante importante en el camino ideal del edificio de la ciencia, que no es otro que la integración. Como ha señalado Chomsky (y como en realidad no puede ser de otra manera), la facultad humana del lenguaje es el resultado de tres factores fundamentales: la dotación biológica, el influjo del entorno lingüístico y los principios generales de la naturaleza, incluyendo los principios de simplicidad y eficacia computacional (el llamado tercer factor en el que pone énfasis el programa minimalista chomskiano). El trabajo de Yang es indudablemente una aportación de primer orden en la ardua tarea de desentrañar cómo se relacionan entre sí estos tres factores a la hora de producir la facultad del lenguaje que atesora cada hablante, el objetivo esencial de la teoría lingüística.

Y ya que he mencionado el tercer factor, cabe señalar que, aunque Yang no lo menciona (que yo sepa), es aún más intrigante conocer (gracias a un amigo matemático, el profesor Manuel Vázquez, que me lo señaló) que la función N/LnN se emplea para calcular cuántos números primos contiene una cifra. Así, si volvemos a la tabla de antes, podemos predecir que 10 incluye 4 números primos (1, 2, 3 y 7) y que 20 incluye 7 números primos (1, 2, 3, 7, 11, 13 y 17), etc. No soy capaz de valorar la importancia de esta coincidencia (y ni si es realmente una coincidencia), pero sí de apreciar la belleza que hay detrás de la misma. Quién sabe si la distribución estadística entre regularidad e irregularidad que favorece la adquisición del lenguaje por parte de cerebros en plena maduración tendrá alguna relación con el misterio esencial de los números primos, pero sería bonito pensar que sí.

¿Hay algún lingüista en la sala? Ideas sobre las lenguas que perjudican seriamente la salud de la gramática

a través de ¿Hay algún lingüista en la sala? Ideas sobre las lenguas que perjudican seriamente la salud de la gramática

El refranero del lingüista

Del blog de BMarqueta

 

La Morfología sin Límites

A buen lexicógrafo, pocas palabras bastan

A grandes raíces, peores alomorfos

Sufijo que no has de segmentar, ¡Déjalo pasar!

Al mal tiempo, buen modo

Ande yo delante y ríase el determinante

A palabras necias, sonidos sordos

Cría sinónimos y te sacarán más rasgos

Cuando el pronombre suena, tilde lleva

Cuando una sílaba se cierra, una vocal se abre

Cuanto más alto se sube, más grande será la huella

Del árbol caído todos hacen cognitiva

Donde hay sujeto no manda tópico

Dos no cotejan ni uno no quiere

El que avisa no es anáfora

En el medio está la finitud

La semántica es lo último que se pierde

No es adverbio todo lo que reluce

No hay infijo que cien años dure, ni morfología que lo resista

No solo de plural concuerda el nombre

Nunca es tarde si la deixis es buena

Piensa la conjunción que todos van en su misma…

Ver la entrada original 14 palabras más

Gramática: ¿una ciencia de pacotilla?

Imaginen que un profesor de física de Educación Secundaria escribiera una carta a la armonizadora de la Prueba de Acceso a la Universidad (PAU) diciéndole que eso de la mecánica cuántica es una mandanga y que era todo mucho más claro cuando los átomos eran indivisibles. O que un profesor de matemáticas le dijera a la armonizadora de su PAU que la geometría no euclidiana es una aberración, o que un profesor de biología reprochara que se penalizara a quienes negaran la teoría de la evolución en el examen. O imaginen que un profesor de química, aduciendo que así lo aprendió él, se negara a enseñar a sus alumnos la tabla periódica, siendo que ya los griegos habían dicho que los elementos fundamentales son cuatro, y pretendiera que no se penalizara esa teoría en los criterios de corrección. No menos sorprendente (ni menos irritante) sería comprobar que tales profesores les sugirieran a las armonizadoras respectivas (normalmente Profesoras Titulares o Catedráticas de Universidad con años de estudio e investigación y decenas de publicaciones en revistas científicas) que leyeran a Demócrito, a Euclides, a Newton… o la Biblia.

Son ejemplos grotescos, pero, en realidad, algo así está pasando en Aragón con respecto a ciertas propuestas que la armonizadora de la PAU de “Lengua castellana” (mi compañera la Dra. Mamen Horno Chéliz) ha hecho a la comunidad de docentes de secundaria de cara a la evaluación de la prueba de análisis sintáctico de la PAU del próximo curso.

Bueno, admito que exagero, pero me temo que no tanto como parece.

¿Qué sofisticadas y controvertidas teorías modernas, arriesgadas e incomprensibles para la mente adolescente ha sugerido la armonizadora que deberían reflejar los alumnos en la PAU para no tener (una modesta) penalización en sus análisis sintácticos?

Fácil, solo dos cosas: que analicen los Sintagmas Preposicionales como Sintagmas Preposicionales y que no confundan el argumento locativo de un verbo con un complemento circunstancial de lugar. Vamos, que no confundan la función sintáctica de sobre la mesa en He puesto el libro sobre la mesa y en Me gusta bailar sobre la mesa.

Que en el primer caso sobre la mesa es un argumento del predicado poner está fuera de toda duda y no merece la pena revisar aquí los argumentos que lo demuestran. Y lo mismo para las pruebas de que sobre la mesa no es un argumento del verbo bailar en la segunda.

Lo que parece que ha sobrecogido (indignado en ocasiones) es cómo se analiza la secuencia sobre la mesa. El análisis sugerido como óptimo por la armonizadora es el que podríamos encontrar en cualquier revista científica con índice de impacto y evaluación por pares (o sea, donde se publica la ciencia) aparecida en los últimos cincuenta años: sobre la mesa es un constituyente sintáctico y está formado por una preposición (sobre) y un sintagma nominal (la mesa). Hasta ahí, me atrevo a aventurar, nadie estaría en desacuerdo. Y quien esté en desacuerdo tiene un serio problema de comprensión de qué es un constituyente sintáctico y de qué están hechas las oraciones. Bueno, es cierto que los gramáticos griegos tenían una concepción bastante precaria de cuál era la estructura de la oración (como de cuáles eran los elementos fundamentales). Para ellos las oraciones estaban hechas de palabras. Precisamente por eso, a lo que hoy llamamos clases de palabras ellos lo llamaban meré logou (partes orationis en latín), esto es, partes de la oración. Pero hoy en día eso sería como decir que el cuerpo humano está formado por células (obviamente cierto) ignorando que las células se agrupan antes en órganos. Ningún profesor de anatomía accedería a la cátedra ignorando ese nivel de complejidad estructural intermedio entre el organismo y la célula.

Asumamos pues que carece de sentido negar que sobre la mesa es un constituyente sintáctico y dejemos por imposible al que persista en negarlo. No es ese el motivo de la rebeldía de ese nutrido puñado de docentes airados, sino la propuesta adicional de que el núcleo del sintagma es la preposición, esto es, que sobre la mesa es un Sintagma Preposicional (SP) y no un Sintagma Nominal (SN) con algo delante.

La hipótesis de que el núcleo del SP es la preposición tiene, por supuesto, una motivación teórica (es subsidiaria de la hipótesis de que toda proyección sintáctica es endocéntrica), pero en absoluto se puede considerar contraintuitiva, contraproducente o imposible de explicar en bachillerato, como hemos tenido que leer estos días. Usando un criterio puramente semántico (el más accesible a los estudiantes) decimos que mesa azul es un SN porque denota una mesa y no un color, decimos que vender coches es un SV porque denota una acción y no un objeto con ruedas y decimos que orgulloso de su hija denota un estado y no a una niña. ¿Y qué denota sobre la mesa, una relación o un mueble?

Es difícil encontrar en la bibliografía seria propuestas que cuestionen que sobre la mesa es un constituyente sintáctico, pero, por supuesto, no es tan difícil encontrar propuestas muy respetables en las que se afirma que sobre la mesa es un sintagma exocéntrico, esto es, que no tiene núcleo. Lo malo es que hay que irse muy atrás en la breve historia de la teoría sintáctica: lo más moderno que tengo en casa que diga eso es el venerable Curso de lingüística moderna de Charles F. Hockett… ¡de 1958!

Si habláramos de física, de biología, de matemáticas o de química, una referencia de 1958 se consideraría equivalente al pleistoceno y, desde luego, no se podría usar para acusar a la armonizadora de atribularnos con moderneces efímeras. Es verdad que las ciencias humanas no funcionan igual que las llamadas ciencias naturales, pero, aún así, desde 1958 también ha llovido mucho en la teoría sintáctica.

Sospecho que la idea de que la preposición no es el núcleo sintáctico (ni puede serlo y es una “aberración” decir que lo sea, que también lo he leído) procede de varias fuentes, esencialmente tres: (i) que las preposiciones típicamente tienen menos contenido léxico que los nombres, los verbos y los adjetivos, (ii) que la preposición tiene como función unir cosas entre sí y (iii) que se emplea un criterio distribucional para determinar qué es el núcleo. Los argumentos (i) y (ii) están claramente relacionados y ambos son endebles. En Juan es listo la expresión es listo es un sintagma verbal, aunque ahí el verbo carece de significado. Por su parte, podemos seguir diciendo que la preposición une cosas entre sí y mantener que es el núcleo del SP. Una cosa no está reñida con la otra, al igual que el núcleo del SV es listo es es y su función es relacionar a Juan y a listo.

El núcleo del problema está precisamente en la noción de núcleo. En teoría sintáctica núcleo se entiende (oh sorpresa) como núcleo sintáctico. En un sintagma el núcleo es el elemento que rige complementos y recibe modificadores y es el elemento que determina la categoría sintáctica del conjunto completo. Sin embargo, el criterio que empleaba Hockett (asumiendo la tradición del estructuralismo anterior) para determinar el núcleo era el distribucional: un sintagma tiene como núcleo aquella palabra que podría funcionar ella sola como todo el conjunto (pero nótese que el criterio se basa también en la asunción de que el núcleo “transmite” su categoría al conjunto). Así, el nombre es el núcleo del SN porque un nombre (Juan) puede aparecer en las mismas posiciones que un SN (Juan/el vecino es listo), el adjetivo es el núcleo del SA porque un adjetivo puede aparecer en su lugar (Juan está orgulloso de su hija/cansado) o el verbo es el núcleo del SV porque un verbo puede sustituirlo (Juan come patatas/respira), etc. Pero la preposición no puede sustituir al SP: El libro está sobre la mesa/*sobre). Como la mesa tampoco puede (*El libro está la mesa), entonces se concluye que sobre la mesa es un sintagma sin núcleo (exocéntrico).

Sin embargo, la gramática, en contra de lo que creen algunos, no es como la filosofía, la crítica literaria o la teoría política: es una disciplina empírica (como la física o la química) en la que hay cosas que están bien y cosas que están mal. Hay análisis correctos y análisis incorrectos. El criterio distribucional es simplemente insuficiente para determinar el núcleo sintáctico. Por ejemplo, nos obligaría a decir que dilucidaste el enigma es exocéntrico (y no un SV) porque no se puede sustituir por dilucidaste (*Ayer dilucidaste) o que proclives al odio no es un SA porque no se puede sustituir por proclives (*Los vecinos son proclives). Parece claro que la razón de esas restricciones no tiene que ver con la nuclearidad del verbo o del adjetivo, sino con el hecho estrictamente léxico de que son transitivos y no permiten la omisión del argumento regido. Pues lo mismo sucede con las preposiciones: no pueden sustituir a todo el SP simplemente porque en español todas las preposiciones son transitivas (ocasionalmente alguna permite la elisión, pero es un fenómeno marginal en nuestra lengua: -¿Tienes tabaco? -No, me he quedado sin).

Y la razón por la que las preposiciones son transitivas no tiene que ver con si son o no núcleos, sino con su contenido léxico. Las preposiciones son en realidad muy similares a los verbos. Si hay algo inherente a un verbo es la capacidad de regir argumentos (que luego aparecen como complementos directos, sujetos, etc.). Si imaginamos un verbo con significado léxico simplificado y sin capacidad de tener un sujeto, entonces nos damos de bruces con una preposición. En el resto se parecen mucho. Así, los verbos normalmente rigen como complementos SSNN (Compró una casa), pero los hay que rigen SSPP (Hablaba de política) e, igualmente, las preposiciones normalmente rigen SSNN como complementos (Sin las flores, el famoso “término de la preposición” en la gramática tradicional), pero también las hay que rigen SSPP (Por entre las flores). Los verbos determinan también otras propiedades gramaticales de sus complementos, como el caso (recordemos el latín: video urbem) y las preposiciones determinan el caso de los suyos (decimos *para mí y no *para me o *para yo). Todos sabemos que hay verbos que rigen oraciones como complemento (Decidió que Luisa viniera) y también hay preposiciones que lo hacen (Para que Luisa viniera). De hecho, a veces los verbos determinan el modo del verbo de su complemento oracional (Deseo que vengas/*vienes) y lo mismo pueden hacer algunas preposiciones (Para que vengas/*vienes). [Ejemplos adaptados de los que usan Bosque y Guitérrez-Rexach en su enorme tratado de sintaxis del español de 2009].

Pero nada de eso tendría explicación asumiendo que la preposición es simplemente una especie de elemento de enlace o un nexo, o expresiones similares. Esas caracterizaciones son confusas, incompletas y, digámoslo sin ambages, erróneas, por mucho que aparezcan en los libros de texto. Si no aceptamos que la preposición es el núcleo de su propia proyección (el SP), entonces no solo no podemos explicar todas esas propiedades, sino que estamos hurtando a nuestros alumnos importantes generalizaciones estructurales sobre cómo funcionan realmente las lenguas.

Cabe ahora recordar que el objetivo de la teoría sintáctica no es analizar oraciones, sino revelar la estructura oculta y sistemática que subyace a las secuencias lineales de palabras que emitimos. O lo que es lo mismo, explicar por qué las expresiones lingüísticas complejas significan lo que significan y no otra cosa. Reducir la preposición al papel de elemento de enlace o nexo no solo no contribuye a esa noble tarea, sino que representa un paso atrás.

Ahora bien, cabría preguntarse entonces: ¿por qué los profesores (algunos profesores) de lengua española, a diferencia de sus colegas de física o de biología, se habrían de empeñar en no incorporar a sus programas las innovaciones científicas que se producen en su campo?

Obviamente, no es culpa de los profesores de secundaria de lengua castellana (de lengua española, vamos), es culpa de quienes los hemos formado. Hay un evidente problema con la enseñanza de la gramática en la educación primaria y secundaria, y hay muchas personas trabajando intensamente para mejorar eso (el movimiento GrOC, “Gramática Orientada a las Competencias”, es una de las principales iniciativas en esa dirección), pero los causantes del problema no son los maestros y profesores de Instituto, sino que lo somos los profesores universitarios encargados de la formación de aquellos.

Las preguntas acuciantes entonces son las siguientes: ¿Por qué en las universidades pueden persistir en ciertos ámbitos teorías o modelos ya olvidados en la literatura científica? ¿Cómo es posible que haya profesores y catedráticos de universidad dando vueltas en círculo alrededor de 1958?

He dado a entender al inicio que hay una diferencia según si hablamos de ciencias naturales o de “ciencias humanas”, y es obvio que ahí radica parte al menos de la explicación. Por supuesto, no creo realmente que la lingüística o la teoría gramatical sean ciencias de pacotilla, pero es inevitable esa conclusión a la vista de lo que estoy contando. Escribí un largo y denso libro (Gramática natural, disponible aquí) argumentando que la teoría gramatical, la gramática, es una ciencia natural como la física o la biología, pero no soy tan ingenuo como para pensar que las cosas funcionan igual en el campo de las humanidades y en el de las ciencias naturales, aunque solo sea porque la teoría gramatical forma parte en realidad de la ciencia cognitiva, un ámbito en el que el peso de la teoría y la especulación frente a los hechos empíricamente observables con un microscopio o un acelerador de partículas es todavía demasiado grande.

Pero tampoco es ajeno a este problema el arrinconamiento del estudio y la enseñanza de la gramática que se ha producido en los departamentos de Lengua Española y de Lingüística en la Universidad española (aunque no exclusivamente) en los últimos decenios, en beneficio de otras aproximaciones al lenguaje y las lenguas, tales como la pragmática, la sociolingüística, el estudio del léxico, la historia de las lenguas, el estudio de la variación lingüística, etc. Todas ellas son aportaciones relevantes y necesarias, pero no deberían desplazar al núcleo esencial de la ciencia del lenguaje: la teoría gramatical.

Todo lo que quieres saber sobre ‘portavoza’ y no te atreves a preguntar

En una aportación anterior en este blog (No permita que el sexo de los árboles le impida ver el género del bosque) consideraba el asunto de la confusión entre género gramatical y sexo (o identidad de género) en relación con el uso no sexista del lenguaje, especialmente con respecto al uso del masculino genérico. No repetiré aquí las ideas y argumentos ya expuestos, pero me parece oportuno hacer unas observaciones complementarias en relación con el célebre neologismo portavoza, acuñado por la portavoz parlamentaria Dª Irene Montero en fechas recientes.

800px-Irene_Montero,_durante_la_entrevista_con_eldiario.es_(cropped)Aunque voy a intentar evadirme de los factores clave en la producción y recepción de dicho término (el activismo feminista y la ideología política) y me voy a centrar en el análisis estrictamente lingüístico del fenómeno, no puedo sustraerme de expresar el doble estupor que me ha causado la repercusión mediática del invento: por una parte, por la acerba crítica por parte de algunos y, por la otra, por la acrítica aceptación por parte de otros. Espero que esta reflexión sirva para atenuar tales extremos y proporcione herramientas analíticas más sólidas para enjuiciar los límites y el alcance del activismo aplicado a la gramática del español.

En teoría gramatical, género es el nombre que le damos a las clases de nombres (o sustantivos) en función de las variaciones que inducen en la concordancia con otras clases de palabras (principalmente adjetivos y determinantes). Por tanto, en las lenguas en las que no hay concordancia, no hay género. En inglés, por ejemplo, los nombres no tienen género porque los adjetivos y los determinantes en esa lengua no varían en función del género. Así, en español tenemos La mujer pequeña y El hombre pequeño reflejando que en español hay dos géneros (femenino y masculino), mientras que en inglés dicen The little woman y The little man, sin diferencia alguna en el determinante y el adjetivo. El género, por tanto, es una clasificación de los nombres en diversas clases formales a los meros efectos de la concordancia.

El lector sin formación en lingüística ya podía sospechar esto al advertir que en los nombres inanimados (esto es, que designan entidades sin sexo) el género en español es una propiedad caprichosa que no guarda correlación alguna con el significado del propio nombre. Así, en nuestra lengua, los nombres acabados en –a suelen ser femeninos (mesa, silla, trampa), pero no siempre (día, aroma, cisma, clima, dogma). Los nombres acabados en –o suelen ser masculinos (fuego, odio, cuerpo, libro), pero no todos (mano, libido, nao). Los acabados en –e pueden ser masculinos o femeninos (el roce, la fuente), igual que los acabados en –i o en –u (el alhelí, la bici, el ímpetu o la tribu). Los nombres acabados en consonante igualmente pueden ser masculinos o femeninos: árbol, césped, regaliz, anís o hábitat son masculinos y vocal, pared, perdiz, tortícolis o flor son femeninos. Nada hay en el significado de esas palabras que justifique su adscripción genérica.

Por otra parte, aunque hay una clara tendencia a correlacionar la terminación en –a con nombres de género femenino y la terminación en –o con nombres en género masculino, la cantidad de excepciones y la casuística brevemente repasada dejan claro que considerar que -a y -o finales son morfemas de género en los nombres es arriesgada, cuando no incoherente. La NGLE (2.3c), siguiendo tendencias recientes en morfología, sugiere al respecto que es más interesante considerar esas terminaciones como marcas de palabra (relevantes para la morfología y la fonología) y considerar que estos nombres no tienen un morfema flexivo de género, sino que poseen género inherente. Puede ser discutible, pero es relevante observar que, en rigor, donde pueden existir morfemas flexivos es en los elementos que reflejan la concordancia dictada por los nombres (y no en los nombres en sí), esto es, en los adjetivos, artículos y demás elementos adnominales que muestran concordancia. Si comparamos la expresión Todas aquellas torres blancas con Todos aquellos muebles blancos, apreciamos que la oposición -a/-o para mostrar el género es más propia de los elementos adnominales que de los propios nombres, ambos marcados con –e.

Asumiremos, por tanto, que los nombres tienen género inherente (esto es, que el género es una propiedad de toda la palabra, no de su terminación) y que solo las palabras que concuerdan (como los adjetivos) tienen morfemas flexivos de género. La razón esencial para esta propuesta es que, por definición, la variación flexiva no crea nuevas palabras, sino diferentes formas de la misma palabra. Así, claro, clara, claros y claras no son cuatro palabras distintas ni significan cosas distintas, sino que son cuatro formas de la misma palabra. Para evitar equívocos, algunos lingüistas emplean el término lexema en lugar de palabra para este último uso, de manera que diremos que en la lista anterior hay un lexema (el adjetivo que significa ‘claro’) y cuatro formas de palabra distintas (masculino singular, femenino singular, masculino plural y femenino plural, que serán seleccionadas en función de con qué nombre concuerden). Sin embargo, hombre y mujer no son dos formas de la misma palabra, sino dos lexemas distintos. Y, desde luego, no diríamos que mujer es el femenino de hombre o que hombre es el masculino de mujer como sí decimos con propiedad que claro es el masculino de clara o que clara es el femenino de claro.

Lo relevante para lo que nos interesa ahora es que lo mismo tendremos que decir entonces de niño y niña (en contra ahora de la NGLE 2.3b): no son dos formas de la misma palabra, sino dos palabras distintas, dos lexemas distintos, pues obviamente no significan lo mismo. Una niña no es un niño de género femenino, sino otra cosa distinta. Así, es importante distinguir la diferente naturaleza de -o y -a finales en niño/niña y en claro/clara. En el primer caso esos sonidos vocálicos reflejan el género al que pertenecen y en el segundo son marcas de concordancia. Solo en el segundo caso se pueden considerar morfemas flexivos. Mi colega (y, sin embargo, amigo) David Serrano-Dolader publicó una útil síntesis de esta controversia, con conclusiones diferentes a la mía (Serrano-Dolader 2010).

Lo que sostengo es que en el caso de niño la -o final es igual que la de libr-o, y en el caso de niña la -a final es igual que la de mes-a, una marca de palabra sin significado. Por tanto, como la –o de libro, la –o de niño no significa ‘varón’, sino que marca que esa palabra inducirá concordancia en masculino. Por su parte, la –a de mesa, no significa ‘hembra’, y tampoco lo hace la de niña, sino que marca que esos nombres concordarán en femenino. Si el género del nombre es inherente, no se gana nada aduciendo que esas vocales finales tienen significado en los nombres de persona y no en los nombres de cosa: más bien lo que sucede es que en los nombres de persona (y en parte de animales) sí existe una tendencia a que el género sea semánticamente interpretable (esto es, como sexo), mientras que en los nombres inanimados el género (en el caso del español) es un residuo puramente formal. Una excepción son los llamados epicenos, que aunque designan seres animados, no restringen el sexo en función del género (jirafa, tiburón, persona o bebé son algunos ejemplos).

Por supuesto, niño denota un varón (salvo que se use genéricamente) y niña denota una hembra (y por eso son dos lexemas distintos). Y obviamente no es casualidad que la palabra niño sea masculina y que la palabra niña sea femenina. Tradicionalmente, al género que incluía las palabras para designar ‘machos’ (como hombre o toro) se le llamaba ‘género masculino’ y al género que incluía palabras para designar ‘hembras’ (como mujer o vaca) se le llamaba ‘género femenino’, pero ello no significa, obviamente, que en español todas las palabras masculinas denoten ‘machos’ y que todas las palabras femeninas denoten ‘hembras’. Lo que ha hecho la lengua en este caso es emplear una misma raíz (niñ-) para crear dos lexemas distintos (niño y niña) en vez de obligar a memorizar una raíz distinta para cada género (como en los llamados heterónimos del tipo de hombre/mujer o toro/vaca). Por su parte, aunque ahora no nos concierne directamente, los morfemas de plural sí son flexivos y no inherentes (así, niño y niños son dos formas de palabra del mismo lexema y no dos lexemas distintos).

Tal y como hemos observado antes considerando los nombres inanimados, en español la marca de palabra típica para el género masculino es –o, mientras que la marca de palabra típica para el género femenino es –a: así, cuando creamos una palabra nueva que designa una mujer tendemos a poner una –a como marca de palabra (jueza, médica o los mediáticos miembra o portavoza), porque sabemos que los nombres de persona que designan mujeres, niñas y hembras en general pertenecen al género femenino (hay pocas excepciones, que son de género masculino por razones formales, como putón o mujerón) y porque sabemos además que muchas palabras femeninas llevan una –a. Pero no es el caso que tales nombres designen mujeres, niñas y hembras porque sean femeninos.

Espero que ya se vaya viendo por dónde voy: no todo nombre que designe mujeres, niñas o hembras de animales tiene que marcarse con una –a para que tenga género femenino. Lo tiene inherentemente. Veamos por qué.

Si reconsideramos solo los ejemplos de nombres inanimados vistos hasta ahora, lo que observamos es una clasificación de todos los nombres del español en dos clases a efectos de concordancia, sin correlación alguna con el significado o denotación de los nombres. Así, que un nombre sea masculino o femenino sería algo totalmente arbitrario en relación con su significado o denotación. En efecto, si esto fuera todo lo que hay, podríamos perfectamente prescindir de las confusas etiquetas “masculino” y “femenino” y romper toda conexión entre género gramatical y sexo. Y en tal caso, la palabra portavoza nunca habría sido pronunciada. Y tampoco existirían los pares niño/niña, lobo/loba o ministro/ministra. Obviamente, lo que tienen de especial estas palabras es que designan seres animados susceptibles de diferenciarse por el sexo. Y el sexo (como el alma) siempre ha interesado mucho al ser humano.

Aunque algunos autores sostienen que la asignación de género a los nombres es arbitraria e impredecible, si nos centramos en los nombres que designan personas y animales (especialmente animales domésticos o muy conocidos, cuyo sexo es relevante para nosotros), lo cierto es que el sexo tiene mucho que decir en las estrategias que las lenguas del mundo emplean para asignar el género inherente a los nombres. De hecho, según Corbett, autor de un tratado clásico sobre el género (Corbett 1991), la posibilidad de predecir el género de los nombres en las lenguas del mundo está en torno al 85%. Claro que aquí se incluyen no solo los criterios semánticos (del tipo de macho/hembra o animado/inanimado), sino también los criterios morfológicos (cuando ciertas propiedades morfológicas, como la declinación, determinan el género) o criterios fonológicos (cuando ciertos fonemas determinan el género). En todo caso, los criterios semánticos son los más extendidos y, como señala Corbett, no hay lenguas en las que los únicos criterios sean formales (esto es, puramente morfológicos o fonológicos). Es relevante recordar de nuevo que el género nominal es inherente, lo que implica que debe aprenderse de memoria. No es extraño entonces que exista una cierta motivación semántica, reforzada por motivación morfo-fonológica adicional, que facilite en las lenguas que tienen género la tarea de adquisición de ese rasgo, imprescindible para el uso del idioma. Así, la –a de niña (aunque cueste creerlo) no hace a niña femenino, pero nos recuerda que lo es a la hora de establecer concordancias.

En las lenguas del mundo el número de géneros varía desde dos (como en español) o tres (como en alemán o en latín) hasta una decena o más (en función de cómo se consideren los llamados clasificadores nominales). Los contenidos denotativos que suelen tener que ver con la asignación de género a los nombres no son arbitrarios e inmotivados, sino que parecen tener una clara base antropológica y cognitiva. Se trata de contenidos relativos a la animación, la humanidad, el sexo, o el tamaño y la forma de los objetos, aunque también hay casos de rasgos menos frecuentes, como la comestibilidad o el peligro (como recoge el célebre título de George Lakoff: Woman, Fire, and Dangerous Things, aludiendo a la denotación del género femenino en la lengua australiana dyirbal).

Como señala Corbett (de quien tomo los ejemplos siguientes), hay lenguas en las que el género de los nombres siempre es predecible a partir del significado (digamos que la asignación de género es puramente semántica). Por ejemplo en godoberi (una lengua del Cáucaso) hay tres géneros (I, II y III): al género I pertenecen todos los nombres que denotan seres racionales varones, al género II todos los nombres que denotan seres racionales de sexo femenino y al género III todos los demás. Así, cualquier palabra que denote a una mujer será femenina, independientemente de su forma morfológica y fonológica (recuérdese que esto significa simplemente que inducirá a concordancia femenina). Las lenguas no suelen ser tan simples y consistentes, incluso entre aquellas que solo usan criterios semánticos. En archi (otra lengua caucásica) hay cuatro géneros (I, II, III, y IV). Los dos primeros son como en godoberi: machos y hembras racionales (o sea, humanos y deidades, etc.) pertenecen a los géneros I y II, según el sexo. Al género III se adscriben animales domésticos y salvajes adultos, insectos, seres mitológicos, instrumentos musicales, cereales, árboles, fenómenos acuáticos y fenómenos astronómicos y meteorológicos. Al género IV pertenecen los nombres que denotan animales salvajes y domésticos jóvenes, los animales pequeños, herramientas y objetos de corte, ropas, metales, líquidos y nombres abstractos. La clave, muy brumosa, parece ser que a III pertenecen los nombres que denotan objetos concretos y grandes, mientras que a IV se asocian los que no lo son.

Junto a estas lenguas, que confían solo en criterios semánticos, encontramos otras que los complementan con criterios formales, más o menos claros. Así, en ruso la determinación de a qué género (masculino, femenino o neutro) pertenecen los nombres inanimados depende de la declinación casual a la que pertenezcan, tal y como también sucedía en latín. El español es de este tipo, en el sentido de que tiende a usar un criterio semántico para la distribución de nombres que designan personas y animales (en función del sexo), pero, en vez que asignar un género diferente a los nombres no animados (el neutro o clase III del godoberi), los distribuye en los dos primeros géneros basándose en criterios formales, tanto morfológicos como fonológicos, y una buena parte de manera arbitraria. Los detalles de este mecanismo (a veces históricamente condicionado) son complejos y, en todo caso, irrelevantes para nuestros intereses. De cualquier manera, es importante notar que es por causa de criterios formales que mesa es femenino y libro es masculino, que construcción es femenino o que mantenimiento es masculino.

Con este contexto ya estamos en mejor disposición de abordar el género de los nombres de persona (y de animales) en español y las implicaciones de neologismos como portavoza o miembra, por mencionar dos especialmente horrísonos para el hablante nativo medio (y muy mediáticos).

Según el análisis que he propuesto, no deberían existir pares del tipo niño/-a, chico/-a o lobo/-a, al menos los dos primeros, puesto que he asumido que en español los nombres de persona adquieren el género semánticamente, no formalmente, aunque puedan tener marca formal. De hecho, las lenguas se las pueden arreglar perfectamente sin esos pares. Incluso en español no es infrecuente que la misma oposición se exprese con palabras diferentes: hombre/mujer, caballo/yegua o nuera/yerno. Pero, dado que hay una tendencia paradigmática a que palabras del mismo género compartan aspectos formales (nótese que yegua y nuera acaban en –a y que caballo y yerno acaban en –o, aunque no tendrían por qué), no es extraño que, como antes adelantaba, la lengua intente utilizar óptimamente los recursos cognitivos disponibles usando pares mínimos compartiendo la misma raíz. Así, en español hay cientos de nombres de oficios o dedicaciones que muestran oposición genérica por medio de las terminaciones -o/-a (farmacéutico/-a, ginecólogo/-a, ministro/-a, etc.). Otro patrón bastante productivo en este sentido es el de nombres en –or: director/directora, doctor/doctora, lector/lectora o profesor/profesora.

Oposiciones comunes de este tipo son las que están detrás de innovaciones léxicas como la que nos ocupa. Todo parece indicar que, en el afán de hacer notorio el género femenino, la innovación pretende aplicar ese esquema a los que la gramática académica denomina nombres ambiguos o comunes en cuanto al género. Este es el caso del hasta ahora discreto término portavoz. Como todos los de su clase, este nombre tiene los dos géneros, razón por la cual los nombres de este tipo no suelen tener marca explícita de género. Es importante observar que los nombres comunes en cuanto al género son en sí mismos un poderoso recurso de las lenguas para optimizar el coste de la memorización del género inherente a los lexemas. Ejemplos típicos son el cónyuge/la cónyuge, el pianista/la pianista, el testigo/la testigo, el artista/la artista y miles más. Lo que caracteriza a estos nombres es que el género se les asigna semánticamente (en función del sexo), y no formalmente.

Aunque descriptivamente afortunada, la idea de que estos nombres tienen los dos géneros es confusa y no parece muy justificada. Quizá sería más adecuado decir que no tienen género inherente y que lo adquieren de otros elementos (explícitos o no) con los que se construyen. Así, en el par el pianista / la pianista podría ser interesante pensar que el nombre pianista se construye apuesto a un nombre con género (hombre o mujer): el hombre pianista, la mujer pianista. En tales casos la concordancia del artículo se establece con hombre o mujer, no con pianista, que no es el núcleo de la construcción. La elisión de esos núcleos sintácticos produce las formas el pianista o la pianista que motivan la denominación de nombres comunes en cuanto al género. Una forma de visualizar esto podría ser la siguiente: imaginemos que la entrada léxica de pianista representa a este nombre con una variable (x pianista) y que el uso del mismo implica que la variable x (que vendría a significar ‘persona’) tiene que estar ligada o enlazada a un tipo de persona concreta (hombre o mujer). Cuando decimos La pianista alemana hemos ligado x con ‘mujer’ (o con, por ejemplo, Alice Sara Ott), mientras que cuando decimos El pianista alemán hemos ligado x con ‘hombre’ (o, por ejemplo, con Wilhelm Kempff). De hecho, los pronombres personales (yo, , usted, me, te, etc., salvo lo, la y sus plurales) suelen considerarse de la misma naturaleza que los nombres comunes en cuanto al género (GDLE 2.4b): Me quedaré tranquilo/tranquila. Como antes, parece más adecuado decir que estos pronombres adquieren el género de otro elemento (en este caso del referente) que decir que tienen los dos géneros.

Sea como fuere, es evidente que la marca de género adicional en nombres comunes en cuanto al género es innecesaria (desde el punto de vista social) e incoherente (desde el punto de vista gramatical). Nótese que si añadimos una marca de género femenino (como se ha hecho en portavoza), en realidad estamos cancelando el doble valor genérico de esos nombres, lo que obligaría entonces a acuñar decenas (o centenares) de nuevas palabras, tales como mártira, prócera, viejalesa, vivalesa, pelagatosa, mandamasa, auxiliara, titulara, etc. (de nombres acabados en consonante) o detectiva, adlátera, amanuensa, consorta, contabla, extraterrestra, hereja, mequetrefa, pobra o tipla (de nombres acabados en –e). Todos ellos, como portavoza, suenan mal al oído del hablante nativo, precisamente porque contravienen los principios tácitos de su gramática interna, que los analiza como comunes en cuanto al género.

De hecho, la adición de –a a portavoz revela un reanálisis de ese nombre como masculino, fruto más (paradójicamente) de un prejuicio social que de una propiedad formal de la palabra (que, curiosamente, termina con una palabra de género femenino, voz). En este caso particular hay otro efecto indeseado: al adjuntar un supuesto morfema de género, se hace más opaca la estructura interna y transparente del término, un compuesto que básicamente consiste en la nominalización de una estructura verbal transitiva.

La idea de que los nombres comunes en cuanto al género en realidad no tienen género inherente viene también apoyada por la nutridísima colección de nombres de persona formados con la terminación –nte propia de formas participiales de presente del latín: agente, amante, aspirante, cantante, combatiente, concursante, donante, informante, manifestante, oyente, penitente, pretendiente, representante, simpatizante, terrateniente, viajante o viandante, entre otros muchos. Todos ellos son comunes en cuanto al género y, dada su naturaleza predicativa, firmes candidatos a ser nominalizaciones resultantes de la omisión de hombre o mujer, como el hombre aspirante o la mujer aspirante: el aspirante, la aspirante. O, si nos ha gustado lo de antes, con una variable x que se liga contextualmente determinado el género en función del sexo, algo propio de los nombres de persona.

Como señala la NGLE (2.5j), existen pares -nte/-nta, fruto del reanálisis erróneo de la forma en –nte como masculina, del tipo de cliente/clienta, dependiente/dependienta, figurante/figuranta o presidente/presidenta. A mí, personalmente, esos femeninos me suenan mal y no los usaría nunca (salvo presidenta), pero no por cuestiones ideológicas, sino por puro conservadurismo normativo. Nunca digo jueza o médica porque me suenan igual de catetos que detrás míaandaste (¡o andastes!).

El caso de presidenta, como el de jueza o médica (o el caso inverso de modisto) son ejemplos claros de que formaciones derivadas de un error de hipercorrección pueden naturalizarse y ser usadas ampliamente por parte de muchos hablantes. La lógica errónea de presidenta (la misma lógica que subyace a portavoza) y su relativo éxito debería inducir a que ese patrón se extendiera. Sin embargo, es evidente que formaciones como agenta, amanta, aspiranta, cantanta o gerenta no parecen aceptables incluso para hablantes menos escrupulosos que yo y, desde luego, no tienen uso documentado significativo. La explicación de esa limitación es, precisamente, que contradicen un patrón asentado y efectivo en español: el uso para personas de nombres comunes en cuanto al género.

He comenzado diciendo que me causaban sorpresa tanto los furibundos ataques a portavoza (y a su inventora) como la acrítica aceptación de ese engendro léxico por parte de personas formadas. De la segunda causa, no tengo nada que decir. Cada palo que aguante su vela. Pero de la primera sí.

Es sabido que la causa más extendida de todos los cambios lingüísticos son los errores cometidos por los hablantes. Una de las razones por las que el español es como es y no de otra manera es lo mal que hablaban latín los iberos y los
vascones. Las innovaciones del tipo de médica, jueza, portavoza o el inefable miembra (otro caso de nombre común en cuanto al género) son fruto de una deficiente cultura lingüística, un problema derivado de una deficiente enseñanza de la gramática en colegios e institutos. Dicha incultura puede verse complementada, en algunos casos, por la persuasión de que la marca explícita de género femenino puede ayudar a conseguir la visibilidad social de las mujeres fuera de sus roles subalternos tradicionales. Sin embargo, ninguna de esas expresiones merece ser considerada como un ataque a la lengua española (o a cualquier otra) ni, por supuesto, como una fuerza destructora. Eso es ridículo. Lo único que puede destruir una lengua es que la gente deje de hablarla, nunca que la use como le parezca oportuno.

A ver si va a ser que la indignación en nombre de la gramática es en realidad indignación por las ideas que subyacen a tan infelices propuestas o a las de quien las formula.

¡Es la estructura, insensatos! (segunda parte: jerarquía)

Terminaba la primera parte de este post afirmando que Christiansen y Chater (2015) (C&C) aún cometían un error mayor que el de Everett y otros, en el sentido de que no solo también confunden la recursividad (como propiedad formal del sistema computacional) con la subordinación isomórfica (aka “estructuras recursivas”), sino que, además, haciendo casi venial la confusión, niegan que haya en realidad un sistema computacional detrás de la generación y procesamiento de las expresiones lingüísticas. En su lugar proponen que nuestra aparente capacidad para tratar (limitadamente) con la estructura recursiva en las lenguas sería una capacidad aprendida por la práctica y derivada de nuestra capacidad general para aprender secuencias lineales:

We argue that our limited ability to deal with recursive structure in natural language is an acquired skill, relying on non-linguistic abilities for sequence learning (Christiansen y Chater 2015: 2).

Lo que dan a entender, por tanto, es que si nuestra capacidad para procesar la estructura sintáctica se basa en nuestra capacidad para aprender secuencias lineales, entonces la estructura sintáctica es esencialmente lineal. De hecho, argumentan (usando datos genéticos y neurológicos) que los seres humanos han desarrollado una capacidad específica para aprender secuencias complejas, y proponen que esa capacidad es la que estaría detrás de nuestra capacidad lingüística, haciendo innecesario postular una FL, incluso una mínima:

Hence, both comparative and genetic evidence suggests that humans have evolved complex sequence learning abilities, which, in turn, appear to have been pressed into service to support the emergence of our linguistic skills (Christiansen y Chater 2015: 4)

Es curioso con qué facilidad se acepta en este caso una adaptación evolutiva específica para aprender secuencial lineales, pero ese es otro asunto. En todo caso, no parece que haya nada que objetar a que los seres humanos disponemos de capacidades más desarrolladas que otros primates para aprender secuencias complejas, ni sería prudente negar que tal capacidad es especialmente útil para aprender y usar el lenguaje. Esto es así porque las lenguas humanas tienen una obvia dimensión secuencial: hablamos produciendo cadenas lineales de palabras y aprendemos a hablar oyendo (y procesando) cadenas lineales de sonidos. Lo objetable (lo que incluso se puede demostrar que es falso) es asumir que la sintaxis de las lenguas humanas sea lineal. Esta es una creencia tradicional, pre-científica, análoga en la física a la creencia de que los átomos son indivisibles o a la creencia de que se puede predecir el comportamiento de todas las partículas.

Pero antes de volver sobre esto, es importante notar también que al confundir la estructura sintáctica con la secuencia lineal que la representa, C&S (y otros muchos autores) confunden también la gramática con el procesamiento. De hecho, no es que los confundan, es que proponen expresamente que la gramática es innecesaria, y que basta con el procesamiento para explicar la estructura de las lenguas.

Su argumento esencial (aparte de considerar que el lenguaje es un objeto cultural y no biológico) se basa en un despliegue meritorio de experimentación (de otros autores y mucha hecha por ellos mismos, básicamente de simulaciones con redes neurales y contrastes conductuales con humanos) que termina mostrando que las redes neurales artificiales son capaces de evolucionar para replicar básicamente las limitaciones que los humanos tienen para procesar “estructuras recursivas”. Dado que asumen que han mostrado que las redes neurales artificiales emulan las capacidades humanas, y dado que las redes neurales no desarrollan un sistema recursivo interno, entonces concluyen que no hay un sistema recursivo interno dentro de los humanos.

El problema para esta conclusión es que el procesamiento de la secuencia lineal de palabras es solo una parte del procesamiento lingüístico, precisamente porque la estructura sintáctica no es lineal, sino jerárquica.

Consideremos una oración típica de lo que sería una “estructura recursiva” en la que tanto los humanos con las redes neurales entrenadas muestran un mismo patrón de ineficacia, tales como las llamadas oraciones de subordinación central (un tipo de oraciones de “vía muerta”):

1. El cocinero al que el camarero al que el taxista ofendió apreciaba admiraba a los músicos

Cualquier hablante nativo del español consideraría en una primera lectura la oración de 1 ininteligible y la juzgaría como agramatical en un experimento de valoración. Sin embargo, es una oración perfectamente gramatical (léase despacio unas pocas veces, pónganse una comas mentales, y su sentido aflorará como un resplandor en la noche).

Ya Chomsky y Miller, en los años 50, consideraron estos casos como nítidos ejemplos de la diferencia entre competencia y actuación. Aunque la gramática genera esa oración, la gente no la usa porque exige mucho esfuerzo de procesamiento. La existencia de oraciones gramaticales difíciles de procesar es, de hecho, una prueba directa de la existencia de un conocimiento lingüístico independiente del uso del lenguaje en tiempo real (y también de que la sintaxis interna no surgió para la comunicación, pero eso lo discutiremos luego).

C&C objetan que si hubiera una competencia recursiva innata, no debería haber dificultades de procesamiento y que alegar problemas de sobrecarga de memoria de trabajo (la explicación de Miller) es muy barroco, dado que hay personas que lo hacen mejor que otras y que en algunas lenguas se usan más que en otras. Es una actitud razonable si uno piensa que la sintaxis humana consiste en poner palabras en un orden lineal esencialmente plano y que la capacidad sintáctica humana es un refinamiento de la capacidad de aprendizaje de secuencias lineales.

Y, en efecto, los problemas de procesamiento que produce la oración de 1 tienen que ver con el orden lineal. Si lo alteramos moderando las inversiones de sujeto, obtenemos la versión de 2, mucho más amigable (pero con la misma estructura y, por tanto, el mismo significado):

2. El cocinero al que apreciaba el camarero al que ofendió el taxista admiraba a los músicos

Pero esto nos permite dos conclusiones relevantes. Primero, que el hecho de que signifiquen lo mismo teniendo diferente orden pone de manifiesto que el orden no determina el significado. Segundo, que, en efecto, el procesador tiene preferencia por las relaciones gramaticales adyacentes (digamos, “locales” linealmente). Pero nótese que ese es un hecho esperable si estamos procesando una estructura que se ha “aplanado”, esto es, que al externalizarse se ha convertido en una secuencia lineal de palabras. Si empleamos nuestra capacidad para reconocer secuencias como una parte de nuestro procesamiento lingüístico, es esperable que 1 cueste más de procesar que 2, precisamente porque en 1 muchas de las relaciones sintácticas relevantes se presentan “interrumpidas” por otros elementos, que no dejan “cerrar” la derivación y, plausiblemente, sobrecargan la memoria de trabajo. Por tanto, que el procesamiento sintáctico se resienta de hechos de orden lineal no permite concluir que la sintaxis sea lineal.

Además, los propios C&C reportan un hecho interesante en este contexto de distinción entre las propiedades formales de las expresiones generadas por el sistema computacional y el procesador lineal empleado en su uso. Tanto las redes neurales como los humanos (de lengua inglesa) tienden a considerar más aceptable el ejemplo de 3, que es agramatical, que el de 1, siendo que 3 es el resultado de quitar un verbo a 1, formando una no oración:

3. * El cocinero al que el camarero al que el taxista ofendió apreciaba a los músicos

Es comprensible que la ausencia del verbo principal en 3 alivie la sobrecarga de procesamiento, pero entonces lo que se pone de manifiesto es que lo que los experimentos están midiendo es la “procesabilidad lineal” y no la gramática (al fin y al cabo 1 tiene una estructura y sentido coherentes y 3 carece de ambos).

De manera también interesante, aducen C&C que los hablantes de lengua alemana no muestran esa preferencia por 3 sobre 1, dado que están acostumbrados a procesar oraciones con alteraciones sistemáticas de la adyacencia lineal (como por ejemplo dass Ingrid Peter Hans schwimmen lassen sah, literalmente ‘que Ingrid Peter Hans nadar dejar vio’, o sea, en román paladino, que Ingrid vio a Peter dejar nadar a Hans). Esta variabilidad interlingüística en la capacidad de procesamiento es empleada por C&C para reforzar su hipótesis de que la capacidad de procesar estructura recursiva depende de la práctica y la costumbre y que, por tanto, no sería innata y, en consecuencia, no habría FL.

arbol3Sin embargo, la conclusión no se sostiene. Lo que, si acaso, evidencian esos hechos es que la capacidad de procesamiento secuencial se puede entrenar, algo que en modo alguno está en contradicción con la existencia de un sistema computacional recursivo. El sistema computacional recursivo (la sintaxis) genera un número potencialmente infinito de estructuras gramaticales jerárquicas, como las de la figura que ilustra esta entrada. Dichas estructuras, como también resulta representado en la figura, se convierten en secuencias lineales en la externalización del lenguaje para la comunicación. Y una vez externalizadas, unas son más o menos difíciles de procesar por parte de nuestra capacidad de procesamiento lineal y, por supuesto, en función de nuestra experiencia previa y hábitos, tendremos mayor o menor facilidad para ello, como sucede con cualquier lector que ahora vuelva sobre el ejemplo de 1.

La pregunta importante, por tanto, es la siguiente: ¿puede realmente el procesamiento de secuencias lineales dar cuenta de la estructura sintáctica de las lenguas humanas?

Ya sabemos la respuesta de C&C, que les lleva a considerar que la complejidad estructural de la sintaxis de las lenguas humanas es una estipulación y no un hecho empírico contrastado:

From our usage-based perspective, the answer does not necessarily require the postulation of recursive mechanisms as long as the proposed mechanisms can deal with the level of complex recursive structure that humans can actually process. In other words, what needs to be accounted for is the empirical evidence regarding human processing of complex recursive structures, and not theoretical presuppositions about recursion as a stipulated property of our language system. (Christiansen y Chater, 2015: 7)

El error crucial de esa aproximación es, como adelantaba, la indistinción entre, de una parte, las expresiones lingüísticas que emitimos (típicamente en cadenas secuenciales de palabras -como las que el lector tiene delante-) y, de otra, la estructura sintáctica (inaudible e invisible) que determina por qué las expresiones significan lo que significan y no otra cosa.

Puede parecer trivial tener que señalar esto, pero a la vista está que no. La sutil y compleja “estructura subatómica” que subyace a las expresiones lingüísticas está simplemente pasando desapercibida para buena parte de la profesión, esto es, para buena parte de los lingüistas profesionales, lo que sin duda es un problema de la teoría lingüística actual y puede ser un serio obstáculo para su integración en el cuerpo central de la ciencia cognitiva.

Quizá respondiendo a esa misma percepción, casi a la vez que ha aparecido el artículo de C&C, también se acaba de publicar en diciembre pasado, en otra revista de relumbrón en ciencia cognitiva (Trends in Cognitive Science) un artículo de Everaert, Huybregts, Chomsky, Berwick y Bolhuis con el también sugerente título “Structures, Not Strings: Linguistics as Part of the Cognitive Sciences”. Los motivos por los que unos cuantos “popes” de la gramática generativa actual (incluyendo al “pope”) se han puesto a escribir un resumen rayano en lo trivial de la investigación en su campo están claros:

[T]aking language as a computational cognitive mechanism seriously, allow us to address issues left unexplained in the increasingly popular surface-oriented approaches to language (Everaert et al., 2015: 729)

Veamos un ejemplo más de lo que queda sin explicar, en este caso inspirado en uno que discuten Everaert et al.:

4. El vestido que me puse no convenció a nadie

En 4 podemos observar que el término de polaridad negativa nadie tiene que ir precedido por no. De lo contrario, la oración está mal formada:

5. *El vestido que me puse convenció a nadie

Podríamos afirmar que la condición para poder usar nadie en esa oración es que antes haya un no. Pero entonces el siguiente ejemplo del japonés sería un contraejemplo:

6. Taroo-wa nani-mo tabe-nakat-ta  (Taroo no comió nada)

7. *Taroo-wa nani-mo tabe-ta (*Taroo comió nada)

El ejemplo de 7, paralelo al de 5, muestra que si no hay un no (-nakat-) no se puede usar nadie (nani-mo, en este caso ‘nada’). Pero 6 es correcta y ahí es nadie/nada el que precede a no, por lo que no podemos generalizar la explicación. Tendríamos que asumir que en español no tiene que preceder a nadie pero que en japonés es al revés. Sin embargo, lo relevante es que el orden lineal es insuficiente para dar una explicación del contraste:

8. *El vestido que no me puse convenció a nadie

En 8 observamos que, aunque no precede a nadie, la oración es agramatical. Podríamos decir entonces que lo que pasa es que el no tiene que ir con el verbo del que es complemento nadie, pero entonces ya no estamos hablando de orden lineal, estamos hablando de jerarquía. La condición para usar nadie tiene que ver con la posición estructural (en un árbol como el de la ilustración) en la que está no, y no con la precedencia. La idea elemental es que no no puede estar incluido en un constituyente desde el que no sea hermano estructural del constituyente que incluye a nadie (lo que en la jerga llamamos “mando-c”). Así, el no de 8 está “atrapado” en la oración de relativo que no me puse y no tiene la relación estructural necesaria con nadie (y dejo al lector aplicado la explicación de por qué A nadie le convenció el vestido que me puse es correcta).

Pero lo relevante de todo esto es que la interpretación de las expresiones lingüísticas, aunque se materializan linealmente, es sensible a la estructura y no al orden lineal (las reglas son dependientes de la estructura, en la jerga antigua). La prueba palmaria está en que en japonés, una lengua que linealiza sus constituyentes de manera diferente al español, las condiciones son las mismas, precisamente porque dependen de la estructura jerárquica propia de la sintaxis humana y no de cómo esa estructura luego se “aplane” para ser emitida o procesada por el sistema motor que produce las cadenas de sonidos.

En mi opinión, uno de los logros fundamentales de la gramática generativa (y especialmente del programa minimalista) ha sido poner de manifiesto que la conexión entre el sistema computacional (la sintaxis) y el componente conceptual-intencional, responsable en última instancia de la comprensión, es diferente a la conexión del sistema computacional con el componente sensoriomotor responsable de la externalización en señales físicas de las expresiones lingüísticas. Más concretamente, Chomsky ha defendido (desde 2007 al menos) que posiblemente el sistema computacional humano evolucionó / está optimizado para el sistema conceptual-intencional. De este modo, el primer uso del lenguaje sería el de un sistema interno de pensamiento, esto es, un lenguaje interno de la mente capaz de combinar de nuevos modos elementos conceptuales para crear conceptos más complejos (y, por tanto, pensamientos, posiblemente libres del control del estímulo). La posterior conexión con el sistema sensoriomotor para la externalización sería, por tanto, secundaria o ancilar. Y sería precisamente en esa conexión, sensible al entorno en su desarrollo en cada persona, en la que emergerían las diferencias entre las lenguas. La relación entre los componentes esenciales de la FL es, por tanto, asimétrica. En palabras de Everaert et al:

The asymmetry is: the mapping to meaning is primary and is blind to order (language as a system for thought), the mapping to sound/sign is secondary and needs order (imposed by externalization of language). The empirical claim is, therefore, that linear order is available for the mapping to sound/sign, but not for the mapping to meaning. (Everaert et al. 2015: 741)

Parafraseando a Everaert et al. podría decirse que los cómputos mentales en la creación y comprensión de expresiones lingüísticas (y de pensamientos en general) son ciegos a la ordenación lineal de las palabras que son articuladas o percibidas por los sistemas de input y output del interfaz con el sistema sensoriomotor, esto es, dicho más simplemente, que el orden lineal es irrelevante para la semántica y la sintaxis. El orden lineal es un rasgo secundario, impuesto en la externalización del lenguaje cuando este se usa para la comunicación.

Así, concluyen los autores, en la relación entre el sistema computacional y el componente conceptual-intencional la estructura jerárquica es necesaria y suficiente, mientras que el orden lineal es irrelevante. Por su parte, en la relación con el componente sensoriomotor, la estructura jerárquica es necesaria pero no suficiente, mientras que el orden lineal sí es necesario, pues lo impone la externalización. A modo de lema para llevar a casa, los autores lo exponen así:

What reaches the mind is unordered, what reaches the ear is ordered. (Everaert et al. 2015: 740)

Puede que haya algunos aspectos de esta visión que sean erróneos o que necesiten más ajuste y experimentación, pero no es cuestionable que la reducción de la sintaxis a orden lineal es simple desconocimiento de una rama de la ciencia que llamamos teoría sintáctica.

Reconozco que cuando leí el artículo de Everaert et al. en una revista de tanto impacto aparente sentí un poco de bochorno, puesto que cualquier estudiante de lingüística de cualquier universidad medianamente decente está familiarizado con su contenido, pero, como dicen sus autores:

These somewhat elementary but important insights have been recognized since the very origins of generative grammar, but seem to have been forgotten, ignored, or even denied without serious argument in recent times (Everaert et al. 2015: 742).

Hay muchas formas de hacer lingüística y todas tienen importantes cosas que aportar. Uno puede o no estar interesado por la sintaxis, pero no es prudente hacer como si no existiera.

¡Es la estructura, insensatos! (primera parte: recursividad)

En un reciente artículo publicado en la influyente Frontiers in Psychology, Christiansen y Chater (2015) proponen, con el provocador (y elocuente) título de “The Language Faculty that Wasn’t”, terminar de liquidar por completo la venerable noción de Facultad del Lenguaje (FL) de la tradición chomskiana. Su objetivo expreso es argumentar precisamente que no hay una FL, esto es, que el lenguaje no tiene un origen biológico, sino que es un objeto puramente cultural:

“it is time to return to viewing language as a cultural, and not a biological, phenomenon” (Christiansen y Chater 2015: 14).

Es curioso, pero en un libro reciente escrito a medias con Juan Carlos Moreno titulamos un capítulo como “The Paradox of Languages without a Faculty of Language” para remarcar lo inadecuado y contradictorio de la tradición que representan Christiansen y Chater (y otros muchos como Deacon, Hurford, Kirby o Briscoe) y ahora, ellos mismos (por supuesto sin citar nuestra aportación), titulan sus conclusiones como “Language Without a Faculty of Language”).

La estrategia (ciertamente inteligente) que emplean los autores para terminar de liquidar la FL es precisamente la de “unirse” a la deriva minimalista chomskiana y centrarse en atacar el último reducto de la FL tal y como se postula en el actual programa minimalista: la recursividad del sistema computacional.

En efecto, como es bien sabido, el desarrollo minimalista de la gramática generativa en los últimos veinticinco años ha ido reduciendo el peso de lo postulado como biológicamente especificado para el desarrollo del lenguaje en sus modelos teóricos de la FL, planteando que quizá lo único que haya que postular como específicamente humano y específicamente lingüístico de nuestra capacidad para aprender, conocer y usar las lenguas naturales sea un sistema computacional recursivo que genera de manera ilimitada estructuras jerárquicas binarias y endocéntricas. Llamemos Sistema Computacional Humano (SCH) a tal componente, siguiendo un uso habitual. El SCH es lo que en la influyente propuesta de Hauser, Chomsky y Fitch (2002) se denominaba la facultad del lenguaje en sentido estricto y es lo que recientemente Chomsky (en la introducción al volumen que conmemora los 50 años de la publicación de Aspects) ha caracterizado como la propiedad básica del lenguaje humano, esto es, la que está detrás del famoso “uso infinito de medios finitos” de Humboldt (al que, por cierto, Christiansen y Chater también citan).

A diferencia de ineficaces intentos anteriores de argumentar contra el SCH aduciendo que algunas lenguas humanas no tendrían estructuras recursivas (como en el célebre caso de Daniel Everett y la lengua pirahã), Christiansen y Chater (C&C en lo sucesivo) plantean una alternativa más radical, pues proponen que en realidad ninguna lengua tiene un sistema computacional recursivo:

“[T]he recursive character of aspects of natural language need not be explained by the operation of a dedicated recursive processing mechanism at all, but, rather, as emerging from domain-general sequence learning abilities”.

Según los autores, pues, la complejidad estructural de la sintaxis de las lenguas humanas (esa que precisamente sería la consecuencia de la aplicación de un mecanismo recursivo de generación de estructura) en realidad no sería tal, sino que sería una complejidad aparente. Nótese que afirman que el “carácter recursivo” de las expresiones lingüísticas emergería de una capacidad general de aprender secuencias lineales, lo que equivale a decir que la estructura sintáctica que subyace a las expresiones lingüísticas sería lineal, esto es, secuencial. Lo que en realidad viene a ser lo mismo que ignorar la teoría sintáctica de los últimos sesenta años como si no existiera.

Pero para un lingüista implicado en el estudio de la sintaxis de las lenguas naturales la situación es similar a aquella en la que alguien publicara un artículo en una revista de física diciendo que eso de la mecánica cuántica es una complicación innecesaria, una invención de los físicos, y que con el modelo de Newton y, como mucho, la teoría de la relatividad, es más que suficiente para explicar la estructura de la realidad. Puede parecer que estoy exagerando (para empezar, tal artículo nunca se publicaría), pero no es así en lo relativo a sugerir que la complejidad del objeto de estudio es más una invención del investigador que un atributo real del mismo, pues es lo que hacen Christiansen y Chater:

“What needs to be explained is the observable human ability to process recursive structure, and not recursion as a hypothesized part of some grammar formalism” (Christiansen y Chater 2015: 3).

Mas nótese el potencial problema: si los humanos no estamos dotados de un sistema computacional recursivo, sino que (como dice expresamente su propuesta) solo podemos usar mecanismos generales de aprendizaje de secuencias complejas para procesar estructuras recursivas, entonces no queda claro de dónde procederían esas “estructuras recursivas” que (según alegan) somos tan torpes procesando. Pero veamos primero de qué estamos hablando cuando hablamos de recursividad y después volveremos a la propuesta concreta de estos autores y sus implicaciones.

C&C, como tantos otros antes (incluyendo muchos generativistas), confunden la recursividad como propiedad de un sistema computacional (que es de lo que ha hablado Chomsky desde 1955 hasta hoy) con las llamadas estructuras subordinadas recursivas, esto es, cuando una oración contiene una oración, o cuando un sintagma nominal contiene un sintagma nominal. Las segundas son consecuencias rutinarias de la primera, pero en modo alguno se trata de lo mismo.

Como ha mostrado con claridad David Lobina (a quien, por cierto, C&C citan sin síntomas visibles de haberlo leído con detalle), cuando Chomsky habla de recursividad no se refiere a la existencia de “estructuras recursivas” del tipo de El hijo de la vecina de mi tía, sino que se refiere al carácter generativo de las gramáticas de las lenguas humanas.

Dado que la capacidad de la memoria humana es claramente sobrepasada por la creatividad del lenguaje humano, en el sentido de que no podemos abarcar un listado completo de todas las oraciones gramaticales (ni de todas las oraciones agramaticales) de una lengua, Chomsky propuso en los años 50 del siglo pasado, como paso fundamental en la fundación de la lingüística como ciencia cognitiva, que había que atribuir a la mente/cerebro del hablante un sistema computacional (una gramática generativa) que produce recursivamente el conjunto de oraciones gramaticales, un conjunto, en principio, indefinido o potencialmente infinito.

El uso de recursivamente en el párrafo anterior merece explicación, pues es la fuente de los errores señalados. Esta noción de recursividad (como propiedad de un sistema computacional) entronca directamente con la lógica matemática de los años 30 y 40 del siglo XX (asociada a nombres pioneros en la teoría de la computabilidad como Gödel, Post, Church o Turing) y que tuvo una influencia directa y decisiva en el Chomsky de los años 50. En los manuales de lógica matemática en los que se formó Chomsky (véase Lobina 2014 para citas concretas), la noción matemática de recursividad era cuasi sinonímica con la de computablidad, de manera que ‘recursivo’ venía a significar ‘computable’. De hecho, en el uso original de Chomsky, una gramática generativa no es sino una definición recursiva de un conjunto específico (el de las oraciones generadas por la misma). Se habla de una definición recursiva en el sentido en el que Post había mostrado con sus sistemas de producción cómo de axiomas finitos se podían generar/computar conjuntos infinitos. Y eso es precisamente lo que interesaba a Chomsky para capturar la famosa propiedad de la infinitud discreta o, como decía el viejo Humboldt, el uso infinito de medios finitos.

Una función recursiva es, pues, una función autorreferencial, en el sentido de que se define especificando sus valores en términos de valores previamente definidos por la propia función o, en otras palabras, una función que “se llama a sí misma” en el proceso de derivación.

Consideremos como ejemplo, siguiendo a Lobina, la función factorial de un número n. En la notación de la antigua EGB que tuve el honor de padecer, el factorial de n es n!, esto es, n! = n x (n-1) x (n-2), etc. Si n = 1, entonces n! = 1 (este es el caso base); si n es mayor que 1, o sea, n > 1, entonces n! = n x (n-1)!, y ahí tenemos el paso recursivo en todo su esplendor. El factorial de n invoca el factorial de n-1. Así, por ejemplo para n = 5, tenemos 5! = 5 x (4!) y para 4! tenemos que 4! = 4 x (3!) y así sucesivamente (y recursivamente) hasta llegar al caso base.

De manera relevante, nótese que aquí está el germen de la confusión, tan lesiva, entre (i) la recursividad como propiedad formal de un sistema computacional (el uso de Chomsky) y (ii) la recursividad como una instancia particular en la que una categoría dada contiene a una categoría de la misma clase (lo que solemos llamar “estructura recursiva” en lingüística). En la notación de la gramática generativa original, por ejemplo, la regla SN -> N (P + SN) contiene el símbolo SN a ambos lados de la flecha, lo que erróneamente se identifica con la recursividad como propiedad formal del sistema de reglas. Es un error comprensible, pero un error grave. Lo que Chomsky (tanto antes como después de su famoso artículo con Hauser y Fitch de 2002) postula como central y característico del lenguaje humano es la recursividad en sentido computacional, no la existencia de oraciones dentro de oraciones o la existencia de sintagmas nominales dentro de sintagmas nominales. Lo predicho es que en todas las lenguas se pueden generar un número ilimitado de expresiones gramaticales, esto es, en las que hay una relación sistemática entre sonido y sentido, esto es, que son computables.

Así, cuando lingüistas como Everett o C&C (entre otros muchos) intentan demostrar que no existe un sistema computacional recursivo detrás de la estructura de las lenguas argumentando que no existen estructuras recursivas (en una lengua en concreto o en ninguna), en realidad no están disparando a la diana correcta, al margen ahora de si aciertan o no en el blanco (esto es, al margen de que haya o no haya lenguas sin subordinación isomórfica -por usar una expresión menos confusa-, una cuestión discutible pero irrelevante ahora).

La reglas de estructura de frase y transformacionales del modelo estándar han sido reemplazadas en el modelo minimalista por la operación de ensamble (merge). Y precisamente lo que preserva claramente ensamble es la recursividad en el sentido descrito. Así, ensamble es una operación (una función) que toma dos objetos sintácticos W y U y los une formando W (W, U) que a su vez vuelve a ser el input de ensamble y resulta otro objeto sintáctico (digamos Z), según el siguiente esquema, que pretende mostrar el paralelismo con la función factorial antes comentada (E está por la función de ensamble):

X = E (X, Y), donde Y = E (Y, Z), donde Z = E(Z, W), donde W = E(W, U), etc.

Lo que observamoarbol2s, toscamente, es que la función de ensamble se aplica iteradamente de derecha a izquierda para generar el objeto X y que el objeto X se define recursivamente por la aplicación de ensamble a los objetos sintácticos inferiores, a su vez formados por ensamble. La estructura creada por ese proceso sería la que tenemos representada en la figura.

Lo que habría que demostrar para terminar de liquidar la FL minimalista es entonces que la estructura sintáctica de las lenguas humanas no tiene la configuración jerárquica de constituyentes del esquema, sino que es puramente lineal o secuencial, esto es, más o menos así: X = Y, Z, W, U, etc.

Decía al principio que el ataque a la FL minimalista de C&C era más radical que el de Everett porque no se limitan a señalar un posible contraejemplo a la supuesta universalidad de la subordinación isomórfica (la famosa lengua pirahã), sino precisamente porque usando el mismo tipo de argumentación (la supuesta ausencia de subordinación isomórfica o de “estructuras recursivas”) acaban planteando que la sintaxis de las lenguas es secuencial, esto es, lineal. Y eso es todavía peor.

(Continuará)