Publicado originalmente en Virtualia.cl, 2002.

A propósito del artículo sobre los libros relacionados con la saga de Matrix, nos llegó un interesante aporte acerca de la ciencia cognitiva y su relación con las películas de los hermanos Wachowski.

Si bien la selección de libros que explican los alcances de la saga Matrix es bastante interesante, probablemente los mejores ensayos acerca del tema no se encuentren en ellos, sino que en el sitio de la Warner. Aquí se encuentran dos ensayos escritos por dos de los mayores filósofos vinculados a las ciencias cognitivas, Hubert Dreyfus y David Chalmers.

El primero es el autor de What Computers Can’t Do (1972, reeditado en 1993 como What Computers (Still) Can’t Do), y es considerado uno de los tres líderes del movimiento anticognitivista serio (los otros dos serían John Searle y Roger Penrose), y es uno de los principales causantes de la decadencia de la GOFAI (Good Old-Fashioned Artificial Intelligence) hacia mediados de los 80. David Chalmers, por otro lado, es un especialista en conciencia, autor de la réplica al argumento de Fodor & Pylyshyn (1988) contra el conexionismo, y coautor con Andy Clark de Extended Mind (1998).

Ahora, el tema de Matrix es un tema de vieja tela cognitivista: el dilema del cerebro en la tina o ¿cómo podemos saber si la realidad que experimentamos no es simplemente un experimento hecho en un laboratorio donde nuestro cerebro está flotando en algún líquido, y todo lo que percibimos no es más que el resultado de las activaciones neurales que gatillan una serie de electrodos? Este tema fue planteado por primera vez (aunque no de esta forma) por René Descartes, y ha sido un enigma nunca resuelto hasta nuestros días. Tanto Dreyfus como Chalmers se “cuelgan” del problema para interpretar la película como una interesante manera de difundir popularmente el cuestionamiento.

Conociendo lo cognitivo

La ciencia cognitiva (mejor dicho, ciencias cognitivas) es la agrupación de seis disciplinas científicas: inteligencia artificial, neurociencia, psicología cognitiva, lingüística, filosofía cognitiva (o de la mente) y antropología cognitiva. Hace casi cinco décadas los científicos de estas disciplinas se dieron cuenta de que muchos de los temas que abordaban eran compartidos por las otras disciplinas. Preguntas como ¿qué es la mente? ¿cómo funciona la mente? ¿cómo se puede definir el pensamiento? ¿qué rol tiene la percepción en el pensamiento? ¿cómo funciona la memoria? ¿qué relación hay entre lenguaje y pensamiento?, etcétera, eran preguntas que lingüistas y neurocientistas, estudiosos de la inteligencia artificial y de la psicología se hacían permanentemente y para las cuales tenían ciertas respuestas particulares que estaban convergiendo.

Las ciencias cognitivas se encargan de estudiar la cognición, esto es, la manera como funciona le mente. Para hacerlo comparten en mayor o menor medida una definición común: “La mente es un dispositivo que procesa información mediante la recepción, almacenaje, recuperación, transformación y salida de representaciones”. Desde la inteligencia artificial se entiende a la mente como un computador, desde la neurociencia como un sistema biológico que opera sobre las representaciones a nivel neural, etcétera.

Cualquier historia de las ciencias cognitivas marca su nacimiento en 1956 (algunos llegan a decir que fue exactamente el 11 de setiembre de dicho año). Eso porque en esos días se realizó un simposio de teoría de la información en el Instituto de Tecnología de Massachusetts (MIT), donde se presentaron varios ensayos sumamente relevantes de algunos de los que luego serían considerados los padres fundadores de la disciplina: Shannon (el creador de la moderna teoría matemática de la información), Newell y Simon (este último premio Nobel de Economía en 1978, con su teoría lógica computacional -como dato anexo puedo contarles que el último premio Nobel de Economía, Daniel Kanneman, también es científico cognitivo), Noam Chomsky (el creador de la lingüística generativa) y George Miller (que informó acerca de su investigación sobre la capacidad de almacenaje de la memoria de corto plazo).

Los vericuetos de la historia

Uno de los temas principales que ha guiado la historia de las ciencias cognitivas hasta nuestros días es la metáfora computacional. Cuando se entiende a la mente como un tipo de computador, se pueden seguir dos caminos. Uno es pensar en un computador a la Von Neumann (quien creó la arquitectura básica de los computadores que todos conocemos, con mecanismos de entrada, varios tipos de memoria, procesadores centrales y mecanismos de salida). El otro es pensar en los sistemas de computación distribuidos o de redes neurales (creados por primera vez en los 40 por Pitts y McCollough).

Durante las dos primeras décadas (años 60 y 70) de las ciencias cognitivas, primó el modelo Von Neumann (o serial) sobre todo porque el modelo conexionista (redes neurales) fue puesto en duda por un famoso libro de Minsky & Papert en 1969 en se que cuestionaba la capacidad de las redes de realizar algunas operaciones lógicas (que sí hacía con facilidad la mente humana). En esa época, los teóricos de los modelos seriales llegaron a pensar que no iban a pasar muchos años (menos de cinco, creían) antes de que se llegara a crear un computador que fuera capaz de comportarse cognitivamente como un ser humano (o sea, que fuera capaz de hablar, recordar, realizar todo tipo de tareas y tener conciencia).

Aquí es donde hace su entrada Hubert Dreyfus quien publica What Computers Can’t Do en 1972, donde a su vez cuestiona al modelo serial y discute que en realidad los computadores hasta entonces no han hecho sino “imitar”, y muy pobremente, algunos resultados de las operaciones de la cognición humana. John Haugeland, en la misma línea que Dreyfus denominó entonces a dicha línea serialista: GOFAI (Good Old Fashioned Artificial Intelligence – La Buena y Anticuada Inteligencia Artificial). Se le llamó así porque se empezó a ver claramente que las promesas hechas a fines de los años 60 de computadores pensantes en pocos años, eran desmesuradas y falsas (una época romántica, pero poco realista).

A mediados de los 80 el modelo serial estaba fuertemente desprestigiado como modelo de la cognición humana, por lo que hubo un revival del serialismo. En primer lugar, porque la neurociencia, que hasta entonces había sido una simple comparsa del baile cognitivo, empezó a encontrar tecnologías revolucionarias de representación de las actividades del cerebro (los sistemas de neuroimagen fMRI y PET, entre otras cosas). En segundo lugar, porque se lograron crear redes neurales computacionales que superaban los problemas planteados por Minsky y Papert. Los cientistas cognitivos clásicos no dieron el brazo a torcer y empezaron a perfeccionar sus propios modelos por un lado (como en el tipo de arquitectura llamado SOAR de 1990 del ya mencionado Newell), y a atacar los alcances del conexionismo neural por otro. Aquí hacen su aparición los modernos campeones del conexionismo como David Chalmers o Andy Clark (autor de Mindware, una de las mejores introducciones a la filosofía de la mente).

El estado de la cuestión hoy es de difícil pronóstico, aunque la ciencia cognitiva serial sigue siendo el paradigma hegemónico, cada vez con más fuerza los conexionistas dan muestras de tener al menos un par de preguntas mejor contestadas que sus rivales (una es la verosimilitud del modelo -parece que en realidad es más correcto pensar en el cerebro/mente humanos como un dispositivo conexionista que serial). Un tercer movimiento es el de los anticognitivistas que piensan que las ciencias cognitivas, cualquiera sea su cuño, no han sido capaces de abordar ni responder a las preguntas esenciales acerca de la mente, en específico el tema de la conciencia. Entre ellos sigue estando Dreyfus, pero se les ha sumado gente como John Searle (que es más conocido como uno de los fundadores de la pragmática) o Roger Penrose (más conocido por sus trabajos en física en conjunto con Stephen Hawking).