Cuando Marty McFly llega a 1955, se encuentra con el prof. Emmett Brown, quien abre la puerta usando una estructura en la cabeza que parecía átomo, o un sólido platónico. En la película, el doc Brown dice que es para leer los pensamientos. (salto en el tiempo y el espacio). Diez años después, en la olvidable Batman Forever (trato de olvidarla, pero la tengo adherida indeleblemente), el personaje de Jim Carrey intenta crear lo mismo: una máquina que lea los pensamientos de los demás.

Citas o referencias cinematográficas  que toquen este tema u otros similares abundan: Westworld (1973), Videodrome (1983), hasta Matrix (1999) lo hace. Pero no vengo a hablar de cine (cosa que me gusta y me entretiene muchísimo), sino que a compartir un hallazgo que me parece notable. Investigadores de la Universidad de California, Berkeley han estado usando técnicas de imagenología, específicamente fMRI junto con modelos computacionales para reconstruir visualmente  la actividad cerebral de sujetos humanos que se encontraban observando trailers de cine (por eso la introducción cinéfila, no para andarme quebrando con las referencias XD).

En el estudio se trabajó con tres sujetos, y mientras el aparato de fMRI registraba los cambios de flujo sanguíneo que fueron reconstruyendo, hasta ser capaces de hacer el camino hacia atrás, es decir, a partir de los cambios registrados en la corteza occipital, que está encargada del procesamiento visual.

Básicamente, lo que hicieron fue registrar los vóxeles (que son el equivalente 3d de los píxeles, es decir unidades visuales pero que son pequeños cubos), y lo que en el fondo son los vóxeles es funcionar como medida del cambio de actividad metabólica del cerebro (aunque se puede usar la misma técnica con otros tejidos, solo que el cerebro es más entrete). El tema, es que se visualiza el nivel de actividad metabólica, o sea, cuánta energía está usándose en cada parte con una bastante buena resolución temporal. Cuento corto, se hicieron las correlaciones entre los patrones de activación con las imagines  y se pudieron recrear las escenas a partir de la actividad medida, más o menos como la piedra Rosetta.

La película resultante se relacionó con 18 millones de segundos de videos de YouTube, hasta que se encontró aquel trailer que más se emparejaba (correlacionaba) con lo registrado. Para cada imagen de los trailers, se elegían 100 imágenes de los videos de YouTube y se compuso una nueva imagen, un tanto borrosa, pero semejante al trailer.

Hasta ahora, el sistema solo permite reconstruir escenas que ya han sido vistas, pero en un futuro se espera contar con reconstrucciones de los pensamientos o recuerdos de las personas.

Algo así como lo que quería el entrañable doc Brown. El artículo en serio lo pueden pillar por acá: Current Biology.

Los videos, por acato