Archivos del mes: 28 abril 2015

Próxima actividad: mayo de 2015

El próximo lunes, 4 de mayo, a las 19:30 h. en el Salón de Actos de la Biblioteca María Moliner, ZL tiene el honor de contar con el Dr. Miguel Cuevas, de la Universidad de Vigo, quien nos presentará la conferencia:

Música, lenguaje y cognición

En esta charla abordaremos las diferencias y similitudes entre el
lenguaje y la música desde la perspectiva teórica y dedicaremos
especial atención a las convergencias y divergencias que se constatan a
nivel cognitivo. Partiendo de la explicación del modo en el que la
lengua y la música son producidos y percibidos, profundizaremos en
cómo la doble perspectiva general sobre el lenguaje
(generativista/funcionalista) ha determinado los estudios realizados
sobre ambas, para intentar ofrecer un planteamiento propio, que se
detenga en su concepción como sistemas complejos y adaptativos y
cercano a una visión extendida y situada de la mente.

Esperamos que os resulte interesante nuestra oferta y que podáis acudir a esta cita que, como suele ser habitual en ZL, es de entrada libre y gratuita.

Anuncios

Gödel, Hale & Keyser y la incompletitud de la sintaxis

godel-by-david-greyEn 1930 el gran matemático alemán David Hilbert presentó ante lo más granado de su disciplina lo que precisamente se acabó llamando el programa de Hilbert para las matemáticas. La clave esencial de dicho programa se basaba en dos principios: que toda la matemática se sigue de un sistema finito de axiomas (escogidos correctamente) y que tal sistema axiomático se puede probar consistente. En otras palabras, lo que planteaba Hilbert en su programa, también llamado formalista, era que cualquier verdad de una teoría matemática debía ser demostrable a partir de los axiomas mediante razonamientos cuya validez fuera verificable mecánicamente en una cantidad finita de pasos, esto es, algorítmicamente. El lema que resume esta actitud (y que Hilbert hizo constar en su epitafio) era “tenemos que saber y sabremos”.

El programa de Hilbert se proponía en contra de los llamados “intuicionistas” o “constructivistas”, quienes rechazaban la existencia, entre otras entidades matemáticas, del infinito de facto usado por Cantor, precisamente porque negaban la existencia de números que no se pudieran generar algorítmicamente (esto es, mecánicamente por medio de un número finito de pasos). La maniobra de Hilbert era clara: al considerar la propia demostración como algorítmica introducía de nuevo el infinito de Cantor salvando las reticencias de los intuicionistas, que, en efecto, se rindieron oficialmente en aquel congreso en Königsberg de 1930 (aunque la controversia de fondo, si las entidades matemáticas se crean o se descubren, esto es, si tienen existencia independiente, sigue sin resolver).

Mas, en ese mismo congreso, un joven matemático austrohúngaro, recién doctorado y aún desconocido, levantó la mano y afirmó que en realidad había demostrado un teorema que probaba que si las demostraciones habían de ser algorítmicas, entonces era imposible dar axiomas para la aritmética que permitieran demostrar todas las verdades de la teoría. Más concretamente, el primer teorema de incompletitud de Kurt Gödel, el propietario de la mano que se alzó, establece que para todo sistema axiomático recursivo auto-consistente (por ejemplo uno que pueda describir la aritmética de los números naturales) siempre existen proposiciones verdaderas que no pueden demostrarse a partir de los axiomas. El hecho de que Gödel pudiera demostrar (e incluso convencer a Hilbert) que siempre habrá una afirmación verdadera pero indemostrable a partir de cualesquiera axiomas es lo que realmente tiene interés para un lingüista teórico (aparte, por supuesto, de que se ha considerado una de las mayores proezas intelectuales del siglo pasado). Hemos visto que Hilbert convenció a los intuicionistas exigiendo que la demostración de los teoremas siempre fuera algorítmica, y eso es lo que hizo Gödel para convencer a Hilbert: una demostración algorítmica de su célebre teorema de incompletitud, esto es, una demostración que cumplía escrupulosamente el programa de Hilbert.

Pero veamos qué tiene que ver todo esto con la teoría lingüística. Para ello debo aclarar primero que no soy matemático y no he estudiado personalmente los trabajos de Hilbert y Gödel (ni creo que pudiera entenderlos), de manera que este breve relato se basa en obras de divulgación. Mis noticias sobre Gödel se debían esencialmente a los libros imprescindibles de Hofstadter y, sobre todo, de Penrose. Sin embargo, el que sigo ahora es el delicioso ensayo sobre los teoremas de Gödel del matemático y divulgador Gustavo Ernesto Piñeiro. Piñeiro explica que en lógica matemática se emplea la “dualidad semántico-sintáctica”, de manera que un concepto relativo a una secuencia de símbolos es “sintáctico” si únicamente se refiere a los símbolos sin que tenga relevancia su significado (por ejemplo si decimos que en ktlvd hay cinco letras o que la primera es una k), mientras que es “semántico” si depende del significado que la secuencia transmite (por ejemplo si nos preguntamos a qué se refiere o si es verdadera). En este contexto podría decirse que en lógica matemática lo “sintáctico” es lo algorítmico (computable) y lo “semántico” lo vago e impreciso (no computable). Como señala Piñeiro:

“La premisa fundamental del programa de Hilbert consistía en pedir que la validez de los aspectos semánticos de las matemáticas fuera controlada mediante métodos sintácticos. La sintaxis, clara e indubitable, debía poner coto a la semántica, propensa a paradojas” (p. 98).

A estas alturas mis amigos lingüistas (especialmente los generativistas) ya estarán salivando copiosamente. En efecto, es muy tentador relacionar este episodio crucial de la lógica matemática y de la teoría de la computabilidad con la tensión entre el peso de la semántica y la sintaxis en la lingüística moderna. De hecho (y no me consta que se haya hecho antes, aunque nunca se sabe), es muy tentador equiparar en cierto modo el programa de Hilbert para las matemáticas con lo que podríamos llamar el programa de Chomsky para la lingüística. La gramática generativa podría, en efecto, caracterizarse como un intento de reducir la semántica a la sintaxis, en el sentido preciso de que en el modelo chomskyano la sintaxis no está al servicio de transmitir el significado o de ordenar los símbolos, tal y como se suele entender habitualmente, sino que la sintaxis en realidad crea el significado. La sintaxis construye significados que simplemente no existirían sin ella y, lo que es fundamental, lo hace mecánicamente, algorítmicamente, de manera inambigua.

En mis clases de lingüística, para (intentar) persuadir a mis alumnos del interés de embarcarse en una aproximación formal a la sintaxis (a lo que naturalmente suelen ser reacios) suelo sugerirles (una estrategia que leí en algún sitio que no recuerdo) que consideren la diferencia entre pedirle a alguien que haga una determinada tarea y programar un ordenador para que la efectúe. En el primer caso nos basta con enunciar la tarea a realizar, pues asumimos que nuestro amigo pondrá de su parte los mecanismos y recursos necesarios para llevarla a cabo. Simplemente, la enunciamos “semánticamente” (y allá nuestro amigo con los detalles). Sin embargo, un ordenador no tiene sentido común ni iniciativa: hay que pensar detalladamente el proceso de desarrollo de la tarea, y nos obligamos a hacer explícitos e inambiguos todos y cada uno de los pasos a seguir (y al menor descuido o error el programa se cuelga). Construir una teoría sintáctica es lo más parecido que podemos hacer a convertir en procesos algorítmicos el aparentemente milagroso proceso de construir y transmitir significados empleando el lenguaje.

Pero no nos olvidemos de Gödel (y ahora serán mis amigos cognitivistas, que también los tengo, los que se frotarán las manos). Al fin y al cabo, el teorema de incompletitud precisamente demostraba que el “método sintáctico” es necesariamente incompleto: siempre habrá enunciados verdaderos no demostrables a partir de los axiomas. En lógica matemática parece que tenemos que elegir: o bien tenemos métodos de razonamiento seguros y confiables (“sintácticos”), pero no podemos probar todas las verdades, o bien podemos conocer todas las verdades (empleando métodos “semánticos”), pero sin la certeza de que nuestros razonamientos sean correctos. El problema es complejo y enlaza con la controversia sobre la naturaleza de la consciencia humana y el debate sobre la inteligencia artificial fuerte. Para muchos autores (entre ellos Penrose) el hecho de que podamos tener certeza de verdades matemáticas sin una demostración algorítmica posible es precisamente una prueba de la diferencia cualitativa entre la mente humana y un ordenador. Pero, como señala Piñeiro, entonces resulta que lo que Gödel mostró es que no podemos estar seguros de ser superiores cognitivamente a un ordenador, puesto que “jamás podremos tener la certeza de que nuestros razonamientos semánticos son correctos” (p. 161).

Si nos centramos en el lenguaje, podría parecer que Gödel vendría a dar la razón a quienes lo abordan como un fenómeno esencialmente semántico (no computable, analógico, podríamos decir), pero la propia historia de la gramática generativa es una muestra de que probablemente el futuro pueda depararnos sorpresas. Ante la conclusión de que la mente humana no es plenamente algorítmica, Piñeiro concluye con un interrogante de crucial importancia para nosotros:

“¿Existe un nivel intermedio entre los razonamientos puramente sintácticos y los razonamientos libremente semánticos que permita superar la incompletitud de los teoremas de Gödel asegurando a la vez la consistencia? ¿Existe realmente una diferencia tan tajante entre ‘sintáctico’ y ‘semántico’ o lo que llamamos conceptos semánticos no son más que conceptos sintácticos más sofisticados (en los que se trabaja con grupos de símbolos en lugar de con símbolos individuales)?” (p. 162)

No creo que haya ningún lingüista generativista que al leer esto, aunque hable en realidad de la aritmética, haya podido evitar pensar en la controversia entre lexicismo y anti-lexicismo de los últimos decenios. La tendencia inaugurada en buena medida por los trabajos de Hale y Keyser sobre la “sintaxis léxica” en los años 90 del siglo XX (por mucho que se inspiren en propuestas anteriores) se ha visto continuada por la llamada Morfología Distribuida de Halle y Marantz, la aproximación “exoesquelética” de Borer o la nanosintaxis (atribuida a Starke y desarrollada intensamente por Antonio Fábregas). Lo que todos estos modelos tienen en común es precisamente que son instancias avanzadas del programa chomskyano de ir reduciendo el ámbito no computable, vago y fluctuante de la semántica al ámbito computable, algorítmico y no ambiguo de la sintaxis.

La descomposición del significado léxico en términos de las unidades y principios de la sintaxis oracional es obviamente una instancia de esa posibilidad mencionada en la cita anterior de Piñeiro de intentar evitar la incompletitud por medio de la descomposición de los “símbolos semánticos” en estructuras computables (esto es, sintácticas). Consideremos, por ejemplo, el artículo seminal de Hale y Keyser de 1993 en el que demostraban (¡aunque no en el sentido matemático!) que la estructura argumental de los predicados verbales era en realidad una estructura sintáctica ordinaria. Lo relevante ahora es que gracias a esa hipótesis se puede predecir mucho más adecuadamente por qué existen ciertos verbos y no otros, y por qué significan lo que significan y no otra cosa (así, en español podemos decir que embotellamos el vino, en el sentido de que metimos el vino en botellas, pero no que vinamos las botellas).

De hecho, Hale y Keyser se hacen una relevante pregunta semántica (¿por qué hay tan pocos papeles semánticos?) y ofrecen una interesante respuesta sintáctica (porque los papeles semánticos son en realidad relaciones sintácticas). En efecto, incluso los estudios más detallados al respecto suelen convenir en que las lenguas emplean un número muy reducido de papeles semánticos (del tipo de agente, experimentador, tema, locación, etc.), un número que suele oscilar entre los dos de las teorías más restrictivas hasta la media docena de las más prolijas. La mayoría de las aproximaciones disponibles en la época solían proponer una lista jerárquicamente ordenada de papeles semánticos y no se hacían preguntas tan relevantes como las siguientes: ¿por qué hay tan pocos papeles semánticos? ¿por qué tienden a ser los mismos en todas las lenguas? ¿por qué están ordenados jerárquicamente (en el sentido de que no sucede que un verbo tenga un paciente como sujeto y un agente como objeto directo)? ¿por qué los mismos papeles semánticos tienden a aparecer en las mismas posiciones (los agentes como sujetos, los temas como objetos, etc.)? Dado que no parece que sea un problema que la mente humana pueda aprender una docena o dos de papeles semánticos, Hale y Keyser plantean que quizá las respuestas tengan que ver con la sintaxis, y no con la semántica. Así, proponen la hipótesis de que los papeles semánticos se siguen en realidad de configuraciones sintácticas. Lo relevante en el contexto de nuestra discusión es que el carácter restrictivo y predecible de los papeles semánticos (que son parte del “significado” de los predicados) sería en realidad consecuencia de la naturaleza no ambigua y limitada de las relaciones sintácticas. Así, del cóctel formado por, de un lado, la asimetría de las proyecciones binarias y endocéntricas (en las que, por ejemplo, la relación entre núcleo y complemento no es reversible) y, de otro, el hecho (misterioso en sí mismo) de que hay un número muy limitado de categorías gramaticales, Hale y Keyser derivan una respuesta específica y concreta a las preguntas formuladas, con la respuesta ya adelantada de que en realidad los papeles semánticos no son primitivos de la teoría, sino etiquetas descriptivas de relaciones sintácticas finitas y restringidas.

Por su parte, otro de los desarrollos recientes de la gramática generativa, la aproximación cartográfica, es de nuevo un sólido impulso en la misma dirección de intentar reducir la vaguedad semántica a configuraciones sintácticas restrictas y computables (esto es, algorítmicas).

Pero, por supuesto, todo esto no implica que Gödel esté derrotado, ni mucho menos. Es relativamente fácil imaginar que siempre habrá un momento en el que un tipo verdaderamente ‘atómico’ de significado haya de ser postulado como simplemente “conocido” por la mente, un punto pues en el que ‘un axioma verdadero’ no pueda ser ‘demostrado algorítmicamente’, tal y como requeriría el ‘programa de Hilbert-Chomsky’. Pero, al igual que los matemáticos no han dejado de abordar la demostración de todos los teoremas postulados, podría decirse que los lingüistas formalistas estamos obligados a desarrollar hasta el extremo el programa sintáctico iniciado en los años cincuenta del siglo XX y considerarlo un objetivo científicamente lícito e irrenunciable.

Es posible que haya una ‘semántica irreductible’, pero no deberíamos olvidar que, al fin y al cabo, el teorema que lo demuestra sí tenía una demostración ‘sintáctica’, así que nunca se sabe.

X CONGRESO INTERNACIONAL DE HISTORIA DE LA LENGUA ESPAÑOLA

Algunos de nuestros compañeros del Departamento de Lingüística General e Hispánica de la Universidad de Zaragoza están organizando el próximo Congreso Internacional de Historia de la Lengua Española, que tendrá lugar del 7 al 11 de septiembre de 2015 en el Edificio Paraninfo de nuestra Universidad.

Este Congreso está auspiciado desde la Asociación de Historia de la Lengua Española y sobre él podéis encontrar abundante información en la página web http://cihle10.unizar.es.

Desde aquí animamos a todos los estudiosos de la Historia de la Lengua Española a participaren en este encuentro científico y deseamos a sus organizadores todo el éxito en esta empresa. A continuación os añadimos las fechas imoprtantes, para que las tengais en cuenta:

Fechas importantes

– 31 de marzo de 2015
Fin del plazo para el envío de la propuesta de comunicaciones.

– Se amplía hasta el día 20 de abril el plazo para el envío de los resúmenes de las comunicaciones.

– 31 de mayo de 2015
Fin del plazo para el pago de la cuota reducida de inscripción en el Congreso.

– 15 de agosto de 2015
Fin del plazo de inscripción en el Congreso.

– 7-11 de septiembre de 2015
Celebración del Congreso.

Próxima actividad: abril de 2015

El miércoles que viene, 15 de abril, a las 19:30 h. en el Aula Magna de la Facultad de Filosofía y Letras, ZL tiene el honor de contar con la profesora Dra. Carmen Conti (U. de Jaen), quien nos presentará la conferencia:

Metodología y práctica de la documentación lingüística

Las lenguas son reconocidas por la UNESCO como parte del Patrimonio Inmaterial de la Humanidad. En la actualidad, se calcula que se hablan entre 6400 y 6900 lenguas, de las que al menos un 59% se encuentra en riesgo de desaparecer. Si a esto se suma el hecho de que los estados con una mayor diversidad lingüística carecen de leyes o programas que protejan esas lenguas y a sus hablantes, la documentación de lenguas se configura como una labor indispensable para la conservación y la protección de una parte importantísima del patrimonio inmaterial. Esta charla pretende mostrar los aspectos básicos de la documentación de lenguas en peligro, con especial atención a los objetivos, los principios éticos, la metodología y las distintas técnicas empleadas en la recopilación y análisis de datos.

Esperamos que os resulte interesante nuestra oferta y que podáis acudir a esta cita que, como suele ser habitual en ZL, es de entrada libre y gratuita.

¿Dos lenguas, dos mentes? Horrorizando a Schrödinger

Uschrodinger600no de los físicos teóricos más relevantes del siglo XX, Erwin Schrödinger, consideraba que era “obvio” que únicamente existe una consciencia humana y que la sensación que todas las personas tenemos de tener una mente propia e individual es simplemente eso, una sensación.

Admito desde ya que comparar la capacidad de comprensión del universo de Schrödinger con la mía es como comparar un transatlántico con una barca de remos, pero aún así me atrevería a cuestionar la visión del padre de la ecuación de ondas de la mecánica cuántica (por la que recibió el premio Nobel en 1933) y aferrarme a la idea, quizá patosa, de que no existe una mente humana universal, sino que cada uno de nosotros tenemos nuestra propia mente y nuestra propia consciencia del yo. Pero eso sí, solo una.

No es difícil imaginar al genio vienés revolviéndose en su tumba si pudiera leer el artículo recién publicado en Psychological Science (2015) titulado “Dos lenguas, dos mentes”, pues, de estar en lo cierto, se implicaría una proliferación extra de las mentes por encima de las personas.

Los autores del artículo, liderados por Panos Athanasopoulos (Universidad de Lancaster), se hacen eco de la célebre afirmación de Carlomagno de que hablar otra lengua es como tener otra alma y la actualizan dando a entender que hablar dos lenguas es como tener dos mentes. La frase es buena como titular (aunque no tan sugerente como la formulación de Carlomagno), pero no deja de implicar una devaluación bastante drástica de lo que habitualmente entendemos por mente y (sospecho) una visión algo simplista de las relaciones entre lenguaje y cognición.

En todo caso, la lógica de los experimentos en que se basa tal conclusión es relativamente sencilla. Se parte del hecho de que los hablantes monolingües del alemán tienden a ser más proclives a identificar un vídeo en el que alguien camina hacia un coche (pero en el que no se muestra si llega hasta él) con un vídeo en el que alguien entra en una casa, que con un vídeo en el que alguien se dirige a un lejanísimo edificio sin alcanzarlo. Ello implicaría que, ante la duda, tienden a fijarse más en el fin del evento (entrar en la casa) que en el desarrollo del mismo (caminar hacia el edificio lejano) y por ello categorizan con más frecuencia el vídeo incompleto del coche como del primer tipo. La situación inversa se produce en los hablantes monolingües de inglés, que tienden a identificar el vídeo del coche con el del lejano edificio (centrándose, pues, en el desarrollo inacabado del evento). Según los autores ello sería así porque en inglés se codifica gramaticalmente el aspecto progresivo (por ejemplo la forma en –ing del verbo) y en alemán no. Según sus datos, solo un 37% de hablantes de inglés identificó el evento del coche con el de la casa, frente a un 62% de los alemanes. Es interesante, no lo niego, pero no añade nada a la ya extendida pretensión (infundada en mi opinión) de que una mente “inglesa” pueda ser distinta de una mente “alemana”.

Lo delicado viene con los sujetos bilingües. Si una mente alemana es distinta de una mente inglesa (asumámoslo de momento) ¿cómo será la mente de un hablante bilingüe alemán-inglés? ¿O es que tendrá dos mentes?

A estas alturas está claro que ya no sabemos muy bien a qué se refiere la palabra mente, pero sigamos. Según un primer experimento descrito en el artículo, los bilingües tendían a comportarse como los monolingües, aunque con diferencias menos acusadas. Así, cuando se hacía el experimento en un contexto alemán (porque se les dan las instrucciones en alemán y tienen que responder en alemán) tienden a preferir más frecuentemente el vídeo de la casa que el del edificio como semejante al del coche, mientras que cuando actúan en un contexto inglés los mismos sujetos tienden a preferir el vídeo del edificio (que marca el evento en progreso, no completado). Aunque los autores no lo señalan, es de suponer que ese comportamiento más moderado de los bilingües es precisamente efecto de la interferencia entre las lenguas, de manera que cuando hablan alemán son menos “alemanes” que los monolingües de alemán y cuando hablan inglés son menos “ingleses” que los monolingües de inglés.

El segundo experimento es más interesante, pero mucho menos concluyente estadísticamente hablando, y mucho más farragoso en el diseño. En él se pretende “entorpecer la categorización verbalmente mediada” (¿pero no era eso lo que se quería probar?) de los hablantes bilingües haciéndoles repetir en voz alta una secuencia de números mientras realizan la misma tarea del experimento anterior (ver los tres vídeos y decidir a cuál se parece más el del coche). No se nos debería escapar que repetir números en voz alta mientras se ve un vídeo no deja de ser una tarea lingüística, pero en fin, no soy experto en eso. Según los autores, esa tarea de interferencia inhibe en los sujetos la lengua en la que se supone que están pensando (ya que las tareas no son verbales sino de visionado de vídeos) y -lo que se supone es el mayor descubrimiento-hace que entonces elijan las opciones esperables según la otra lengua. Así, cuando están haciendo el experimento en “contexto alemán” (porque les dan las instrucciones en alemán y tienen que responder en esa lengua a qué vídeo se parece más el del coche) y a la vez se les “interfiere” el alemán haciéndoles repetir números -en alemán- mientras ven los vídeos (!), resulta que tienden a elegir menos el vídeo de la casa (el favorito de los “alemanes”) y más el del edificio (el favorito de los “ingleses”). A mitad de experimento se hace un cambio, de manera que tienen que decir los números en inglés (para perturbar el acceso a esa lengua, supuestamente) y entonces resulta que tienden a elegir más como los alemanes. La explicación que ofrecen los autores es que cuando la tarea de distracción verbal interrumpe el acceso a la lengua del contexto del experimento, entonces la otra lengua, por así decirlo, toma el mando.

No voy a entrar en la cuestión de cómo se puede (si se puede) interferir el acceso al lenguaje o, como dicen los autores, a la “verbally mediated categorization”, ni voy a insistir en la aparente contradicción de asumir que se pueda “distraer” la lengua operativa o activa y asumir que a la vez la otra lengua, supuestamente inactiva, venga a suplir a la “interrumpida”, puesto que entonces no queda claro que se haya interferido realmente la categorización verbalmente mediatizada, sea eso lo que sea. Nótese que en tal caso, la misma tarea de distracción aplicada a los monolingües implicaría que no se usa ninguna lengua para hacer el test (ya que no tienen otra que la supla), lo que precisamente demuestra que la influencia de la lengua en la categorización es modesta (salvo que asumamos que entonces no hay categorización de ningún tipo, cosa absurda, ya que en ese caso los sujetos monlingües no entran en bucle, sino que identifican los vídeos, aunque usando otra cosa que no sea el lenguaje, según la lógica de los autores).

Lo que en realidad el artículo pretende haber demostrado es, pues, que los hablantes bilingües inglés-alemán tienen una categorización flexible del mundo en función de qué lengua es dominante en una determinada tarea de identificación de eventos de movimiento. Lo que llama la atención es lo de la categorización flexible. Sus conclusiones son las siguientes:

These findings show that language effects on cognition are context-bound and transient, revealing unprecedented levels of malleability in human cognition.

Pero si los efectos sobre la cognición de las lenguas que se hablan son dependientes del contexto y transitorios, creo que entonces lo que realmente se pone de manifiesto en este estudio (y en otros análogos) es que los efectos de las lenguas concretas que uno habla en la cognición son realmente débiles o superficiales, lo que, por supuesto, no permitiría hablar de una maleabilidad sin precedentes en la cognición humana. De admitir esa afirmación deberíamos entonces reconocer que el término cognición se emplea en un sentido diferente cuando se usa en el texto citado o cuando lo usamos para referirnos, por ejemplo, a la cognición humana frente a, qué se yo, la cognición felina o aviar. Quizá un problema subyacente es que se identifica la cognición con la categorización, pero eso ya es un asunto excesivamente complicado para esta ocasión y, en todo caso, lejos de mis competencias.

En cualquier caso, a la sugerencia de que los bilingües tienen dos mentes cabe oponer lo que la investigación de los últimos años en bilingüismo ha puesto de manifiesto y que resumen con detalle y rigor Judith Kroll y otros en un reciente estado de la cuestión que afirma lo siguiente:

Contrary to the view that bilingualism complicates the language system, this new research demonstrates that all of the languages that are known and used become part of the same language system.

Los bilingües, en contra de lo que se creía en el pasado, no funcionan como dos monolingües, sino que sus lenguas, incluso cuando hay cierta asimetría en su dominio, se interfieren mutuamente y, de hecho, tienden a confluir en un solo sistema de conocimiento. Incluso se ha observado (véase el ensayo de Kroll et al. para referencias) que el tejido cerebral empleado en el almacenamiento y procesamiento de las dos lenguas es esencialmente el mismo.

El cerebro bilingüe es diferente del monolingüe, pero no precisamente porque se desdoble en dos sistemas de conocimiento, sino porque desarrolla un sistema de conocimiento más complejo cuyo manejo adecuado acrecienta ciertas capacidades, exactamente igual que levantar pesas a diario nos hace crecer los bíceps.

El descubrimiento más notorio de los últimos decenios en investigación del bilingüismo es precisamente que las dos (o más) lenguas siempre están activas y se interfieren mutuamente. Da lo mismo si la L1 es muy dominante sobre la L2, si son muy diferentes en su morfología, en su fonología o en su sintaxis, si lo son ortográficamente, si una es signada y la otra oral, o incluso si una de ellas apenas se usa. El conocimiento de una segunda lengua afecta continua e incesantemente al uso de la primera y, por supuesto, el de la primera, con mucha más robustez, al uso de la segunda. Los posibles beneficios cognitivos del bilingüismo derivan precisamente de la necesidad extra del bilingüe de inhibir a una de las lenguas para usar la otra, lo que revierte en una aparente mejora en la capacidad de resolución de conflictos cognitivos (tanto en el uso del lenguaje como en otros ámbitos) e incluso aumenta la protección contra ciertos tipos de degeneración cognitiva, incluido un retraso de los síntomas de la enfermedad de Alzheimer.

El hecho de que las dos lenguas siempre estén activas y se interfieran se explica precisamente porque forman parte de un único sistema de conocimiento (el lenguaje), lo que obviamente no apoya la visión de “dos lenguas, dos mentes”, sino que, al contrario, pone de manifiesto que si hay una parte del lenguaje (y sería muy extraño que no la hubiera) que vertebra nuestra mente y nuestra consciencia, esa parte coincide esencialmente con lo que las lenguas tienen en común.

Para que el lector termine de convencerse de lo frívolo (en el uso de la palabra) que puede llegar a ser afirmar que un bilingüe tiene dos mentes, merece la pena que consideremos un ejemplo de lo contrario: una persona con una sola lengua y dos mentes distintas.

En efecto, a diferencia de lo que sucede con los sujetos bilingües, sí existen personas sobre las que se ha discutido seriamente si tienen dos mentes (esto es, si son más de una persona), y no me refiero a los cinematográficos casos de trastornos de identidad disociativa, sino a los casos de personas con sección del cuerpo calloso que une los dos hemisferios del cerebro.

Quizá el más célebre es P.S., un chaval con cerebro escindido estudiado por Gazzaniga y colaboradores (LeDoux, Wilson y Gazzaniga 1977). Aunque es un tema muy controvertido, se ha llegado a sugerir que cada uno de los hemisferios de P.S. era autoconsciente y tenía su propia mente. Lo interesante (en lo que nos afecta ahora) es que después de la operación solo el hemisferio izquierdo podría hablar, pero ambos comprendían el habla y también el hemisferio derecho empezó poder comunicarse juntando letras del Scrabble para formar palabras usando la mano izquierda. Parece que P.S. tenía, a diferencia de los pacientes examinados hasta ese momento, parte sustancial del lenguaje en el hemisferio derecho (a pesar de que no era zurdo). Lo apasionante es que el hemisferio derecho mostró tener sentimientos, saber qué día era mañana, qué profesión le gustaría ejercer (distinta de lo que declaraba el hemisferio izquierdo) y, en general, todos los atributos de una mente humana. Como señalan en su artículo clásico LeDoux, Wilson y Gazzaniga:

Each hemisphere in P.S. has a sense of the self, and each possesses its own system for subjectively evaluating current events, planning for future events, setting response priorities, and generating personal responses.

Pero lo más relevante es que el hecho de que solo en el caso de P.S. se haya detectado esa independencia cognitiva del hemisferio derecho, mientras que los hemisferios derechos de otros pacientes no revelan esa capacidad de autoconciencia (con la posible excepción de otra paciente llamada Vicki), sugiere a los autores que

the presence of a rich linguistic system is a reliable correlate, and perhaps a necessary prerequisite, to some of the richer aspects of mental life.

Resulta pues que, a la postre, sí que parece tener sentido la antigua intuición de que el lenguaje está detrás de la consciencia y de la naturaleza de la mente humana. Pero, contrariamente a lo sugerido por Athanasopoulos y colaboradores, lo que forma la trama de nuestra mente humana no son los aspectos superficiales, externalizables, del lenguaje (esto es, los aspectos sujetos a cambio histórico y por tanto a variación), sino aquellos que son comunes a todas las lenguas incluyendo, claro está, las diversas lenguas en la (única) mente de un bilingüe. Estoy convencido de que a Schrödinger le habría seducido la idea.

La adquisición de aspecto en ELE

La charla de la Dra. Lucía Quintana de este pasado mes de marzo ya está disponible online. Aprovecho la ocasión para agradecerle de nuevo que haya venido a nuestro seminario a contarnos su investigación. Fue un placer tenerte en casa.

Os dejo con ella