Cuando Marty McFly llega a 1955, se encuentra con el prof. Emmett Brown, quien abre la puerta usando una estructura en la cabeza que parecía átomo, o un sólido platónico. En la película, el doc Brown dice que es para leer los pensamientos. (salto en el tiempo y el espacio). Diez años después, en la olvidable Batman Forever (trato de olvidarla, pero la tengo adherida indeleblemente), el personaje de Jim Carrey intenta crear lo mismo: una máquina que lea los pensamientos de los demás.
Citas o referencias cinematográficas que toquen este tema u otros similares abundan: Westworld (1973), Videodrome (1983), hasta Matrix (1999) lo hace. Pero no vengo a hablar de cine (cosa que me gusta y me entretiene muchísimo), sino que a compartir un hallazgo que me parece notable. Investigadores de la Universidad de California, Berkeley han estado usando técnicas de imagenología, específicamente fMRI junto con modelos computacionales para reconstruir visualmente la actividad cerebral de sujetos humanos que se encontraban observando trailers de cine (por eso la introducción cinéfila, no para andarme quebrando con las referencias XD).
En el estudio se trabajó con tres sujetos, y mientras el aparato de fMRI registraba los cambios de flujo sanguíneo que fueron reconstruyendo, hasta ser capaces de hacer el camino hacia atrás, es decir, a partir de los cambios registrados en la corteza occipital, que está encargada del procesamiento visual.
Básicamente, lo que hicieron fue registrar los vóxeles (que son el equivalente 3d de los píxeles, es decir unidades visuales pero que son pequeños cubos), y lo que en el fondo son los vóxeles es funcionar como medida del cambio de actividad metabólica del cerebro (aunque se puede usar la misma técnica con otros tejidos, solo que el cerebro es más entrete). El tema, es que se visualiza el nivel de actividad metabólica, o sea, cuánta energía está usándose en cada parte con una bastante buena resolución temporal. Cuento corto, se hicieron las correlaciones entre los patrones de activación con las imagines y se pudieron recrear las escenas a partir de la actividad medida, más o menos como la piedra Rosetta.
La película resultante se relacionó con 18 millones de segundos de videos de YouTube, hasta que se encontró aquel trailer que más se emparejaba (correlacionaba) con lo registrado. Para cada imagen de los trailers, se elegían 100 imágenes de los videos de YouTube y se compuso una nueva imagen, un tanto borrosa, pero semejante al trailer.
Hasta ahora, el sistema solo permite reconstruir escenas que ya han sido vistas, pero en un futuro se espera contar con reconstrucciones de los pensamientos o recuerdos de las personas.
Algo así como lo que quería el entrañable doc Brown. El artículo en serio lo pueden pillar por acá: Current Biology.
Los videos, por acato
8 comments
tommygun says:
Sep 25, 2011
¿Y se puede hacer lo mismo con otros estímulos? ¿Música, digamos?
Hugo says:
Sep 25, 2011
La verdad, es que desconozco trabajos al respecto, pero en cierto sentido podría incluso ser menos complejo que lo que aparece acá (iba a poner más fácil, pero dudo que nada de esto sea remotamente ‘fácil’ xD). Pienso en una menor complejidad debido a la organización de la citoarquitectura de las áreas 17, 18 y 19 de Bodman, más bien su organización columnar y laminar…. es re complejo, mientras que la organización tonotópica de la corteza auditiva primaria permitiría (estoy hipotetizando) un estudio menos complicado. Saludos!
Daniel Rodríguez M says:
Sep 25, 2011
Las reconstrucciones además de borrosas me parecieron un “remixado” de varias imágenes, algo así como una composición.
Me toy carrileando o quizás tiene que ver con la forma en que nosotros agregamos información adicional a un estimulo guardado en la memoria?? ( base escencial de ponerle 50% más de emoción a anécdotas fomes XD)
Saludos Hugo!
Hugo says:
Sep 25, 2011
Es una posibilidad, aunque personalmente creo que se debe más al hecho de contar con tecnología ‘primitiva’ o mejor dicho “imprecisa”. No olvidemos que están trabajando sobre áreas primarias, por lo que la ‘cosecha agregada’ debería ser mínima, por ser corteza unimodal y no secundaria.
Saludos!!!
DANIEL says:
Oct 18, 2011
Ahh! claro, en cortezas primarias no debería pasar eso. gracias por la aclaración Mr. un saludo bien grande !
panshop says:
Sep 26, 2011
Una pregunta desde la ignorancia, como pueden saber lo que la persona ve de lo que interpreta que ve? supongo que eso se podria “limpiar” al hacerlo con una gran muestra de personas, y de funcionar, ¿Cuales son las implicancias que tiene respecto de como prosesamos la informacion?
Hugo says:
Sep 26, 2011
Estimado: no entendí muy bien tu pregunta, pero una de las ‘gracias’ del estudio, es que no se buscan interpretaciones, las imágenes son reconstrucciones a partir del metabolismo (inferido a partir del efecto BOLD) de las neuronas de la corteza visual. Hace un tiempo hicieron algo similar con sueños de personas, mediante técnicas similares, pero fueron investigadores de la Universidad de Utah, si no me equivoco. Tu idea de aumentar el tamaño de muestra podría refinar quizás las reconstrucciones, pero hasta por ahí no más, porque el fMRI no tiene TAN buena resolución temporal como espacial. Gracias por la pregunta!
Escuchando al cerebro : Fonoaudiologeeks says:
Feb 7, 2012
[…] Este experimento es bastante similar a uno del cual ya comenté en el blog de los amigos de Tercera Cultura. […]