Lo que aquí sigue es un trabajo que escribí el año 2003 en el marco de un seminario sobre Inteligencia Artificial, en el Magister en Estudios Cognitivos. Lo rescaté del baúl de los recuerdos y lo complemento con links a la Wikipedia (que en ese entonces estaba en pañales), a propósito de la entrada que Martínez publicará mañana, sobre Marcos, Esquemas y Guiones (tema del que hablamos en el primer episodio de nuestro Podcast). Minsky es uno de los creadores de la idea de representar el conocimiento de sentido común categorizándolo esquemáticamente, de modo tal que agentes informáticos (programas, robots, androides asesinos, etc.) puedan interactuar y usar eficientemente esta información (desenvolverse en el mundo de forma independiente, hacer inferencias, aprender por su propia cuenta, etc) . Que les aproveche, y si lo leen completo, gracias por su paciencia y comprensión, era un lolito apenas en ese entonces… y si quedan con sed y quieren leer algo más sobre el qué es la Ciencia Cognitiva, y cuales son sus supuestos programáticos básicos, les recomiendo un excelente artículo de mi maestro y mentor, el prof. Guido Vallejos. Ahora, si me permiten, voy a ir a pegarme una maratón de Ghost in the Shell ^_^

-Remis

[youtube=http://www.youtube.com/watch?v=EbxD758Y4PY]

CYC, Representación y Conciencia:
A “GHOST IN THE MACHINE”

A modo de ilustración del sentimiento que al parecer abrigan muchos de los que presenciarion el Nacimiento de la Ciencia Cognitiva, transcribo una breve entrevista aparecida en Agosto del 2003 en la revista electrónica Wired a Marvin Minsky. Ojo con su opinión:

In his role as agent provocateur, Marvin Minsky, cofounder of the MIT Artificial Intelligence Lab, recently told a surprised Boston University audience that the field of AI has lost its way. Researchers are making little progress developing computers with any knack for reasoning. He took a break from dictating the final chapters of an upcoming book into his G4 using ViaVoice software to give us his thoughts on gray goo, bartender bots, and the importance of plain ol’ common sense.

Wired: The biggest name in artificial intelligence declares AI research “brain-dead” since the 1970s. What gives?

Minsky: There is no computer that has common sense. We’re only getting the kinds of things that are capable of making an airline reservation. No computer can look around a room and tell you about it. But the real topic of my talk was overpopulation.

What’s overpopulation got to do with AI?

The elderly segment of the population is growing to the point where there won’t be enough doctors, nurses, and nurses’ aides. We should be working to get robots to pick up the slack.

What’s AI’s biggest deficiency right now?

The lack of people with an interest in commonsense reasoning for computers. I’ve found maybe a dozen. Douglas Lenat’s Cyc [“psyche”] is the only major program that has collected commonsense knowledge. But it’s not there yet.

If AI’s brain-dead, aren’t you partially to blame?

No. I’ve been continually working on the problem. I’m trying to put a new project together, but it’s hard to get 10 capable people. It would take five or ten years, and nobody wants to put that kind of time in – people want to double their money overnight.

Pick one: Bill Joy or Ray Kurzweil?

Kurzweil is on the right track. Bill Joy is an opportunistic pessimist who thinks the answer to the dangers of technology is to stop progress. I think we’ll take a positive and active role in determining the direction technology goes in, not just sit on the beach and have machines serve us martinis.

Martini-serving bots at the beach? Sounds kind of nice.

I hate lying on the beach – it’s worse than prison for me.

El acento que Minsky pone en lo que llamamos “sentido común” llama particularmente la atención: uno puede deducir que el objetivo de la investigación en Inteligencia Artificial no es precisamente “imitar” la inteligencia “natural” (la humana, la animal, etc) en terminos meramente funcionales, sino que debería apuntar a la elaboración de una inteligencia genuina. Tenemos una tendencia a pensar que tal empresa no es posible, ya que, como seres humanos, nos adjudicamos la exclusividad de la conciencia. Pero eso, lo que llamamos “conciencia”, el “Fantasma en la Máquina”, su naturaleza y su posibilidad de ser emulada, es un tema que abordaré mas adelante.

En la Ciencia Cognitiva, gracias al desarrollo tecnologico caracteristico de nuestros tiempos, la neurociencia ha echado mas luz al respecto de estos temas que en todo el resto de la historia de la ciencia. Y esos avances han dado frutos en el sentido que los mecanismos que subyacen a las –antiguamente “abstractas”- facultades de la mente ya no son un misterio respecto a su qué son, su cómo funcionan y su dónde se localizan dentro del cerebro.

Con algo de temor a sonar trasnochado, no puedo dejar de poner énfasis en lo erróneo que me parece el enfoque tradicional de la CC con respecto a la naturaleza de la mente. A través de la historia, siempre se han usado metáforas para definir a la mente en términos de la tecnología más avanzada del momento. La CC nació en medio de una época de avances en informática (boom que perdura hasta nuestros días y que posee alcances insospechados) y diría que fue inevitable que se homologara a la mente con un computador: a pesar de lo incorrecto que es juzgar la inteligencia en términos del Test de Turing, es comprensible que su idea tuviera tal éxito dado el impulso que sus ideas imprimieron en la primera etapa de la CC una vez constituida.

Ya sabemos que la CC nace como respuesta al empirismo recalcitrante del conductismo, y se arraiga en la perspectiva del procesamiento de información, respondiendo a las 3 preguntas fundamentales formuladas en la definición primera de la incipiente Ciencia, a la luz del enfoque hegemónico de los 70’s:

  • ¿Que es la cognición?: El procesamiento de información en la cabeza (cerebro-mente-etc)
  • ¿Que hace la cognición?: Permite al agente exhibir una conducta inteligente (esto es, actuar en base a metas y propósitos)
  • ¿Cómo funciona la cognición?: Como un computador, operando sobre la base de representaciones

Según Barbara Von Eckardt, en un artículo que forma parte del Diccionario de Ciencias Cognitivas del MIT, la Ciencia Cognitiva presenta dos supuestos sustantivos básicos: por un lado, que los procesos cognitivos son funcionalmente iguales a los de un computador digital (como el que tengo en frente en estos momentos). Esto es decir, que es un sistema formal finito de procesamiento de información, que opera en base a símbolos siguiendo reglas predeterminadas: tal como una maquina de Turing. Por otro lado, estos símbolos son representaciones, que se refieren a objetos del mundo que no son ellas mismas, sino que se refieren a algo otro a si mismas, propiedad denominada como Intencionalidad o “acerquidad” (aboutness) – se opera con símbolos interpretados, que designan algo otro, poniéndo énfasis en que los contenidos, el significado de las representaciones, no es de incumbencia de la Ciencia Cognitiva, sino que sólo el modo de operar con ellas.

El supuesto computacional se caracteriza por no establecer una identidad absoluta entre el computador y la mente, sino que se constituye como una “metáfora constitutiva de teorías”: el decir que la mente funciona “como” un PC no significa necesariamente que “sea” un PC y debamos reducir al cerebro a una mera “máquina de carne”. La metáfora fue ampliamente aceptada debido a que permite concebir a la mente a partir de la similaridad de su funcionamiento con los sistemas informáticos, ya que, si bien se ha podido observar el funcionamiento del cerebro y asociar zonas de este a determinadas funciones, no existen aún técnicas para observar lo que llamaremos “estados mentales”. El Funcionalismo (el caraterizar los estados mentales en base a su relación de causalidad de los inputs y outputs) en este caso, fue productivo y pemitió generar hipótesis heurísticas respecto a la naturaleza y estructura de la mente.

Sin embargo, en esta concepción de la mente como máquina, subyace un error, a mi juicio, enorme: el concebir a la mente, como un diseño. A diferencia de la máquina de estado finito, la mente (término incómodo de usar, por la connotación “inmaterial” que esta ha tenido a lo largo de la historia) no es una máquina de propósito general que funcione de acuerdo a un programa impuesto, sino que es, en términos incómodos de usar para mí también, un epifenómeno (y al hablar de epifenómeno, estoy haciendo una distinción de carácter epistemológica, no ontológica) resultante del funcionamiento del cerebro, que ha sido moldeado por la evolución durante milenios, y que cuyas capacidades no estan dadas por algun “programa” externo. La mente no es un diseño (en el sentido que sus partes hayan sido concebidas para tal o cual función, como en el caso del computador cuyas partes son encapsuladas, relativamente independientes y con un fin específico), una arquitectura que pueda ser “extrañada” o alienada del cerebro (cuando se le considera a veces como la mera implementación física en la cual el programa llamado “mente” corre), la mente es el cerebro, es una e indivisible con el. El cerebro es software y hardware a la vez.

Sabemos que la inteligencia es una propiedad de la mente, y que esta reside, en nuestro caso, en el cerebro. El cerebro es la implementación material de lo que llamamos mente (en el común sentido abstracto de la palabra). Pero, implica esto necesariamente que lo que llamamos inteligencia, razonamiento, mente, sea una propiedad exclusiva del cerebro? Es implementable en otro tipo de dispositivo? A mi juicio, aun es demasiado temprano para emitir un veredicto.

Investigando sobre CYC, el que a juicio de Minsky es el único intento serio de lograr un sistema de razonamiento de sentido común en informática, me llamo poderosamente la atención una entrada de las FAQ del sitio. Veamos:

What happens if Cyc decides that human beings are responsible for world chaos? It may decide to eliminate us. Is Cyc controlled by Asimov’s Laws of Robotics? Shouldn’t it be?

Because Cyc currently cannot initiate any actions, we are safeguarded for now from the potential catastrophe you describe. As Cyc grows in capability to the point where it can “do things” and perform self-improvement, we will have already incorporated enough commonsense knowledge about what goals are right and wrong, and most importantly – why. We want an Artificial General Intelligence to have unity of will with its developers. There will be no need to restrain it, and we could not restrain it anyway as sometime in the future it will be smarter than us.

El concepto de tener máquinas que razonen (en el sentido genuino de la palabra), pasa por emular todas las funciones cognitivas relevantes para el razonamiento. Disponemos de procesadores que tan sólo unos años atrás eran parte de la ciencia ficción (y si la Ley de Moore sigue sosteniéndose, hablar de Terahertz puede convertirse en una realidad a mediano plazo), disponemos de dispositivos de memoria, de dispositivos de entrada y salida cada vez mas modernos y eficientes. Sin embargo, nuestros computadores actuales no pueden (aún) hacer algo esencial en el razonamiento humano: el saber lo que son y lo que están haciendo, tener conciencia de si mismos y de sus actividades. En el desarrollo y la investigación sobre los llamados Sistemas Expertos hay muchas claves a tener en cuenta en esta tarea inconclusa.

CYC es un esfuerzo con miras a lograr lo que Mr. Minsky añora: máquinas pensantes. Y si nos ponemos paranoicos y leemos entre líneas, CYC -léase como psyché pronunciado en inglés- tendría ese nombre a partir de la palabra griega mencionada, que significa Alma. Es básicamente una enorme base de datos multi-contextual, junto con un poderoso motor de inferencias, actualmente en desarrollo, cuyo fin es “romper el cuello de botella del software de una vez y para siempre” construyendo la primera base de conocimiento de “sentido común” que permitirá desarrollar productos y servicios más flexibles, capaces de “entender” más que solo “procesar”. Algunos de los elementos de la arquitectura de CYC son:

* La Base de Conocimiento (Knowledge Base) de CYC

Consiste en una representación formalizada de una enorme cantidad de conocimiento humano fundamental: hechos, reglas y estrategias de resolución de problemas, para razonar acerca de los objetos y eventos de la vida cotidiana. Esta base consiste de términos (el vocabulario de CYC) y aserciones acerca de estos términos. Esta base de datos esta subdividida en ciento de Microteorías, las que se componen de aserciones que comparten un set común de asumciones, y que estan enfocadas en un dominio de conocimiento en particular. De este modo, el sistema puede manejar aserciones que son aparentemente contradictorias (del tipo “Luis XV es el Rey de Francia”, “Luis XIV es el Rey de Francia” y “Francia no tiene Rey” , frases que son verdaderas dependiendo del contexto). La base de conocimiento, la que aún se encuentra en desarrollo (a pesar que en www.opencyc.org hay versiones beta) ha sido creada en base a las aserciones y términos agregados manualmente al sistema por humanos, asi como por las aserciones agrgadas automáticamente por el sistema a si mismo producto del proceso inferencial.

* El Motor Inferencial de CYC

Este motor ejecuta deducciones lógicas generales (incluyendo modus ponens, modus tollens y cuantificación universal y existencial) incluyendo casos especiales como los mecanismos inferenciales de herencia, de clasificación automática, etc. CYC. La performance del sistema se incrementa dramáticamente al ser capaz de restringir los dominios o microteorías a revisar ante un problema dado. Una característica de la arquitectura de este sistema es que posee sub-módulos inferenciales especializados, para tipos específicos de razonamiento, como razonamiento temporal, razonamiento matemático, igualdad, pertenencia (lógica de clases), etc.

* CycL: El lenguaje de representacion de CYC

Esta basado en el lenguaje formal del calculo proposicional de primer orden, extendido y aumentado para soportar y manejar igualdades, skolemización y otras características de segundo orden. Por ejemplo, pueden cuantificarse predicados en algunas circunstancias, y aserciones completas pueden aparecer como componentes intensionales de otras aserciones (por ejemplo, cosas como “Los perros son agresivos es una descripción”). Su vocabulario cocnsiste de Términos, los que se pueden dividir en constantes, terminos no-atómicos, variables, y otros tipos de objetos, los que el sistema combinan para hacer aserciones. CycL usa un tipo de circunscripción, incluye la asumción de los nombres únicos, y puede usar asumciones de “mundo cerrado” cuando sea conveniente.

* Procesamiento de Lenguaje Natural

Posiblemente, este es uno de los desafíos mas grandes de la industria del software. Tenemos sistemas que pueden convertir habla a texto, texto a habla, correctores ortográficos, etc. Pero ningun sistema es capaz de tomar un texto y “entenderlo”, interpretarlo y sacar conclusiones. Solo se ha logrado un nivel muy precario de comprensión, dentro de dominios preconcebidos muy estrechos. Por ejemplo, la distinción entre el sentido de las siguientes frases:

  • Pedro vió unos pájaros volando sobre Isla de Pascua
  • Pedro vió unos Moais volando sobre Isla de Pascua

Aunque las frases son idénticas en estructura, una persona no tiene mayor problema en interpretar que en la primera frase los que vuelan son los pájaros, mientras que en la segunda frase el que vuela es Pedro. En el lenguaje natural, la máxima de que al “cuidar la sintaxis la semántica se cuida sola” no tiene mucha validez (y hay montones de ejemplos en todos los idiomas (“they are flying planes”). Un software es incapaz de hacer distinciones como las mencionadas de no poseer una base de conocimientos extensiva como CYC, el cual, gracias a que conoce de antemano que los pajaros vuelan y que los Moais no pueden, no tiene dificultad en procesar estas frases y formalizarlas adecuadamente. El sistema de lenguaje natural de CYC (Cyc-NL) se compone de:

  • El Lexicon (en el cual cada palabra del Inglés esta representada como una constante, y existe información semántica asociada a cada palabra) que es donde se almacenan los vínculos entre las constantes de CYC y las palabras del idioma inglés
  • El Módulo de Análisis Sintáctico (Sintactic Parser), que utiliza una gramática estructural basada en los principios de gobierno y enlace. Usando un número determinado de reglas libres de contexto, en módulo construye estructuras de árbol, de abajo hacia arriba (bottom-up), sobre la frase de input. El módulo entrega como output todos los árboles sintácticos posibles permitidos por el sistema de reglas, lo que posibilita interpretaciones diferentes de una misma frase en caso de ambigüedad sintáctica.
  • El Módulo de Interpretación Semántica, que transforma los outputs del módulo anterior en fórmulas de CycL. El output de este módulo es CycL en estado puro: sentencias que pueden ser agregadas a la base de conocimientos directamente, o bien una pregunta hecha en lenguaje natural al generador SQL puede transformarse automáticamente en una consulta al sistema. Este módulo puede hacer uso del conocimiento almacenado en cualquier etapa del proceso de interpretación (para asi saber que los pajaros tipicamente vuelan y que los Moais son objetos inanimados, para asi rechazar interpretaciones alternativas que no vengan al caso)

* Bus de Integración semántica

La información puede almacenarse de muchas formas, incluyendo datos estructurados (Bases de datos), semi-estructurados (plantillas, páginas web en html o php), y sin estructurar (texto plano). CYC puede transformar esta información en conocimiento utilizable, y el resto puede ser anotado e indexado para facilitar el acceso al mismo por el usuario humano.

CYC trata cada registro en las bases de datos como si fuera una aserción implícita en la Base de Conocimiento. Estas aserciones implícitas así quedan disponibles durante la inferencia. Similarmente, los textos pueden ser leídos usando el procesador de lenguaje natural para revisar si contienen aserciones implícitas útiles. A veces estas aserciones se refieren el “acerca de qué” es el texto. CYC puede usar esta información para ubicar y reportar al usuario fuentes de información útiles para responder una consulta en particular.

De acuerdo a este diagrama, la información almacenada en la base de datos (DBMS) o en la página Web son puestas a disposición del Motor Inferencial ( Inf. Engine) como aserciones virtuales, las que son manejadas por módulos de Nivel Heurístico (Heuristc Level, HL). Por ejemplo, el motor inferencial “transmite” una consulta en el bus. Un módulo HL reconoce que la consulta requiere una aserción que se enmarca en su espacio de conocimiento virtual. El módulo intercepta la consulta, se comunica con la base de datos, la página web u otra fuente, y reporta los enlaces al motor inferecial. Asi prosigue la inferencia integrando información de diversas fuentes.

CYC incluye herrameintas de interfaz HTML, que permiten al usuario explorar la base de conocimientos, editar el lexicon, herrameintas de conversión por lote para formalizar y agregar grandes cantidades de texto a la base de conocimientos, herrameintas para explorar las relaciones entre términos dentro de la ontología de CYC, y herrameintas de traducción de lenguaje natural a CYC y viceversa para hacer consultas e interpretar los resultados de las mismas.

Si el mencionado proyecto es exitoso, a mediano plazo contaríamos con computadores capaces de interpretar adecuadamente el lenguaje natural y conversar en el sentido genuino de la palabra (a diferencia de los programas de charla existentes, como el dr. Abuse, que tengo instalado y que simula a un psicoanalista, el cual es capaz de sostener una conversación, pero dentro de parámetros muy limitados, haciendo uso de frases hechas, con cero capacidad de interpretación). Tendremos máquinas capaces de superar el test de Turing con gran ventaja. Pero entonces, sería la concreción de CYC la primera Inteligencia Artificial genuina? Es un paso adelante, pero definitivamente la meta está mucho más alla. A nivel de arquitectura, la senda lleva por buen camino. Pero el camino se extiende mucho más allá de la concreción de un autómata con “sentido común”.

Daniel L. Schacter, un prestigioso psicólogo dedicado a la investigación en torno a la memoria humana, en su libro “En Busca de la Memoria” nos hace notar, entre otras cosas, que la memoria no es un sistema centralizado, no es un “componente” del cerebro que resida en una locación única: distintos problemas de la memoria pueden tener origen en daños en la corteza cerebral muy alejados unos de otros, afectando selectivamente capacidades de la memoria de corto y de largo plazo, sistemas basados en una red distribuida. Pero la observación mas importante que hace en su libro, es la distinción clave a la hora de distinguir la memoria humana de la memoria artificial o mecánica (así como la distinción a nivel de otras facultades cognitivas distintas de la memoria): el acto de recordar implica necesariamente un esfuerzo cognitivo en el cual el rememorante construye el recuerdo de manera consciente: quien recuerda, recuerda “en primera persona” y sabe que el recuerdo le pertenece. Ninguna de nuestras máquinas actuales es capaz de tener una “experiencia consciente”: en el ordenador solo existe el dato puro, informacion codificada carente de semántica, pero que no puede interpretar y hacerla suya en un acto de autoconsciencia. La semántica surge en los sistemas informáticos como un “fantasma en la máquina” que surge de la sintaxis, del código, de la arquitectura. Sin un yo que le de sentido a las operaciones, el sistema no “sabe” lo que está diciendo, tal como en el ejemplo del cuarto chino de John Searle. Pasar el test de Turing no implica la existencia de Inteligencia. En el momento en que un sistema similar a CYC pueda, en base a lo que ha “aprendido” conocerse a si mismo, y ser capaz de conversar sobre si mismo a nivel personal, y asumirse a si mismo como un “ser pensante” sin que ningún usuario humano se lo indique, estaríamos (quizás) en presencia de un autómata autoconsciente. Puede que en algún futuro seamos capaces de construir computadores que piensen y sientan en el sentido genuino de la palabra, como el HAL de Kubrick en 2001: Odisea en el Espacio, que sentía miedo, o Andrew, el robot que pasa 200 años tratando de comprender a y ser un humano en El Hombre Bicentenario de Asimov, o Roy Batty, el androide que antes de morir se lamenta el llevarse al morir los recuerdos de sus increibles experiencias en Blade Runner, de Ridley Scott.

Sabemos que el cerebro no opera como una maquina de Turing: funciona paralela y distribuidamente, y posee múltiples subsistemas especializados. Y si bien la velocidad de las neuronas, en términos de velocidad del impulso electroquímico de la sinapsis, es sustancialmente inferior a la velocidad a la que operan los computadores actuales, el cerebro tiene un “poder de procesamiento” abismantemente superior que el mas avanzado de los procesadores. Esto, debido a su arquitectura. La arquitectura conexionista (o de redes neurales) posee la cualidad de distribuir en módulos especializados las tareas a realizar. Una arquitectura basada en sistemas expertos interconectados entre sí podría, tentativamente, funcionar en conjunto de esta manera.

La comunidad científica cada vez mas se aproxima a este enfoque. Subsistemas especializados llevan a cabo coordinadamente funciones cognitivas discretas que en conjunto dan origen a lo que llamamos “mente”. Estos subsistemas, en principio, son perfectamente emulables informáticamente. Pero entonces, de donde surge la distinción entre mente y máquina? Cual es el límite entre lo que concierne a la Psicología y a la Informática? Que es lo que el cerebro puede hacer y lo que las máquinas lisa y llanamente no pueden (o no han podido aún)?

Antonio Damasio da algunas luces al respecto, y dentro de mi limitado punto de vista, no puedo hacer nada excepto estar de acuerdo con él. El problema de la conciencia (lo que a nuestras actuales máquinas les falta) se debe dividir en dos partes: Primero, el cómo somos capaces de generar lo que el llama la “película-en-el-cerebro” (movie in the brain), el compuesto multimedial formado por la informacion visual, sonora, tactil, olfatoria, conceptual (entre muchas otras) que compone el “show” multimedial que llamamos mente (que preferiría llamar “experiencia” en el sentido mas amplio de la palabra). El segundo problema es el “Yo”, es el como generamos automáticamente generamos un sentido de pertenencia de la “película” cerebral, como podemos decir que la pelicula “la estoy viendo yo”.

Damasio señala (en el paper “How the Brain creates the Mind”, aparecido en Scientific American, 2002) que no hay nada que no nos permita creer que en un futuro cercano todos los componentes de la pelicula puedan estar plenamente identificados, aislados, y los mecanismos de integración de estos mismos sean desentrañados. El problema entonces se centra en la naturaleza de la conciencia. Precisamente, Damasio pone énfasis en la “acerquidad” mencionada al principio de este trabajo. Como ejemplo, dice que mientras las células del hígado tienen un rol funcional bien definido en el organismo, esta células no representan nada ajeno a ellas mismas o a su trabajo. Sin embargo, las células del cerebro y del sistema nervioso representan precisamente entidades o eventos que ocurren fuera de las mismas. Las neuronas son cartógrafas de lo que sucede dentro de la geografía de un organismo.

En términos evolucionistas, la evolución ha forjado al cerebro para que su función sea el representar directamente al organismo e indirectamente lo que sucede fuera e interactúa con él. Esta intencionalidad del cerebro se manifesta en el rol de “fiscalización” del organismo: en el cerebro residen mecanismos destinados a regular el organismo con el fin de facilitar su supervivencia. Damasio argumenta que el fundamento biológico del sentimiento que llamamos “yo” puede ser encontrado en los dispositivos cerebrales que representan en tiempo real, momento a momento, la continuidad del mismo organismo individual. En términos de la metáfora planteada por Damasio, el sentimiento del yo emerge desde dentro de la película. La autoconciencia es parte de la pelicula, y crea dentro del mismo marco el “observador” y el “observado”, el “pensante” y lo “pensado”. No hay un espectador fuera de la pelicula, el espectador esta dentro de ella, y no hay ningun “homúnculo” (*) paseandose en el cine. No es que haya un Yo separado que piensa y siente, es el Yo el que emerge del acto de sentir y pensar.

De acuerdo a Damasio y muchos otros autores, la meta de la Neurociencia es naturalizar los conceptos teóricos de la psicología: es integrar lo que antaño estaba separado por un abismo: lo mental, accesible a través de la introspección, y lo biológico, accesible a través del microscopio. La idea es explicar los términos usados en la psicología tradicional reduciéndolos a términos de la biología. Es explicar a la mente en términos de cerebro sin acudir a entidades abstractas. Y de realizarse este proyecto, no tendríamos porque considerar que la mente bajaría de nivel o perdería dignidad: al entender a la mente en su nivel más profundo, la veremos como el fenómeno biológico mas complejo y maravilloso, en vez de verla como un misterio insondable. En palabras de Damasio, “la mente sobrevivirá la explicación, tal como lo hace el perfume de una rosa, el cual, a pesar de que conozcamos su composición química, no deja de ser dulce”. Quizás, en ese mismo instante en que todos los misterios con respecto al funcionamiento del cerebro, recién estaremos en pie de crear una Inteligencia Artificial genuina. Y quizás en ese mismo instante nos daremos cuenta que lo que llamamos mente es lisa y llanamente un “fantasma en la máquina” que habita el cerebro. Una vez ahí, todo lo demás que llamamos ciencia ficción puede volverse realidad. Y los programas pensantes y sintientes estarán a la vuelta de la esquina. Este diálogo incluido en la pelicula Matrix Revolutions (2003) entre Neo y Rama Kandra (un programa que desea enviar a su “hija” al exilio para evitar su eliminación) puede ser bastante expresivo de la idea general expuesta. De que talvez la Inteligencia Artificial en algún momento sea “artificial” unica y exclusivamente por no residir en un cerebro humano.

NEO: Is that what you’re doing here?

RAMA-KANDRA: The answer is simple. I love my daughter very much. I find her to be the most beautiful thing I’ve ever seen. But where we are from, that is not enough. Every program that is created must have a purpose; if it does not, it is deleted. I went to the Frenchman to save my daughter. You do not understand.

NEO: I just have never…

RAMA-KANDRA: …heard a program speak of love?

NEO: It’s a… human emotion.

RAMA-KANDRA: No, it is just a word. What matters is the connection the word implies. I see that you are in love. Can you tell me what you would give to hold on to that connection?

NEO: Anything.

RAMA-KANDRA: Then perhaps the reason you’re here is not so different from the reason I’m here.

[youtube=http://www.youtube.com/watch?v=Gn0ZmG39q-M]

*: Homúnculo (hombrecillo), concepto usado en psicología para explicar la conciencia, el donde residiría. Este no es un concepto teórico estricto, sino que un mero recordatorio que el problema de la conciencia aun no se ha resuelto, y este hombrecillo seria quien “controlaría” las demás funciones cognitivas.