La ciencia de la lectura mental

La ciencia de la lectura mental

Los investigadores están investigando antiguas preguntas sobre la naturaleza de los pensamientos y están aprendiendo a leerlos.

29 de noviembre de 2021

Por James Somers

imageNo es tanto que los escáneres cerebrales hayan mejorado, es que hemos mejorado para leerlos. Ilustración de Laura Edelbacher

Una noche de octubre de 2009, un joven yacía en un escáner fMRI en Lieja, Bélgica. Cinco años antes, había sufrido un traumatismo craneoencefálico en un accidente de motocicleta y desde entonces no había hablado. Se dijo que estaba en “estado vegetativo”. Un neurocientífico llamado Martin Monti se sentó en la habitación contigua, junto con algunos otros investigadores. Durante años, Monti y su asesor postdoctoral, Adrian Owen, habían estado estudiando pacientes vegetativos y habían desarrollado dos hipótesis controvertidas. Primero, creían que alguien podía perder la capacidad de moverse o incluso parpadear mientras aún estaba consciente; en segundo lugar, pensaron que habían ideado un método para comunicarse con esas personas “encerradas” detectando sus pensamientos no expresados.

En cierto sentido, su estrategia era simple. Las neuronas usan oxígeno, que se transporta a través del torrente sanguíneo dentro de las moléculas de hemoglobina. La hemoglobina contiene hierro y, al rastrear el hierro, los imanes en las máquinas de resonancia magnética funcional pueden construir mapas de la actividad cerebral. Detectar signos de conciencia en medio del remolino parecía casi imposible. Pero, a través de prueba y error, el grupo de Owen había ideado un protocolo inteligente. Habían descubierto que si una persona se imaginaba caminando por su casa, había un pico de actividad en su circunvolución parahipocampal, un área en forma de dedo enterrada profundamente en el lóbulo temporal. Por el contrario, imaginarse jugar al tenis activaba la corteza premotora, que se asienta sobre una cresta cerca del cráneo. La actividad fue lo suficientemente clara como para ser vista en tiempo real con una máquina de resonancia magnética funcional. En un estudio de 2006 publicado en la revista Science, los investigadores informaron que le habían pedido a una persona encerrada que pensara en el tenis, y vieron, en su escáner cerebral, que lo había hecho.

Con el joven, conocido como Paciente 23, Monti y Owen estaban dando un paso más: intentar tener una conversación. Le plantearían una pregunta y le dirían que podía señalar “sí” imaginando jugar al tenis, o “no” pensando en caminar por su casa. En la sala de control del escáner, un monitor mostraba una sección transversal del cerebro del Paciente 23. A medida que diferentes áreas consumían oxígeno en sangre, brillaban en rojo, luego en naranja brillante. Monti sabía dónde mirar para detectar las señales de sí y no.

Encendió el intercomunicador y le explicó el sistema al paciente 23. Luego hizo la primera pregunta: “¿Su padre se llama Alexander?”

La corteza premotora del hombre se iluminó. Estaba pensando en tenis, sí.

“¿El nombre de tu padre es Thomas?”

Actividad en la circunvolución parahipocampal. Se estaba imaginando caminando por su casa, no.

“¿Tienes hermanos?”

Tenis, sí.

“¿Tienes hermanas?”

Casa no.

“Antes de su lesión, ¿fueron sus últimas vacaciones en los Estados Unidos?”

Tenis, sí.

Las respuestas fueron correctas. Asombrado, Monti llamó a Owen, que estaba en una conferencia. Owen pensó que deberían hacer más preguntas. El grupo analizó algunas posibilidades. “¿Te gusta la pizza?” fue descartado por ser demasiado impreciso. Decidieron sondear más profundamente. Monti volvió a conectar el intercomunicador.

“¿Quieres morir?” preguntó.

Por primera vez esa noche, no hubo una respuesta clara.

Ese invierno, los resultados del estudio se publicaron en The New England Journal of Medicine. El papel causó sensación. Los Angeles Times escribió una historia al respecto, con el titular “Los cerebros de los pacientes vegetativos muestran vida”. Owen finalmente calculó que el veinte por ciento de los pacientes que se suponía que eran vegetativos estaban realmente despiertos. Este fue un descubrimiento de enormes consecuencias prácticas: en los años siguientes, a través de minuciosas sesiones de resonancia magnética funcional, el grupo de Owen encontró muchos pacientes que podían interactuar con sus seres queridos y responder preguntas sobre su propio cuidado. Las conversaciones mejoraron sus probabilidades de recuperación. Aun así, desde una perspectiva puramente científica, había algo insatisfactorio en el método que Monti y Owen habían desarrollado con el Paciente 23. Aunque habían usado las palabras “tenis” y “casa” para comunicarse con él, no tenían forma de saber con certeza que estaba pensando en esas cosas específicas. Solo habían podido decir que, en respuesta a esas indicaciones, el pensamiento estaba sucediendo en las áreas cerebrales asociadas.

Durante las últimas décadas, el estado de la lectura de la mente neurocientífica ha avanzado sustancialmente. Los psicólogos cognitivos armados con una máquina de resonancia magnética funcional pueden saber si una persona tiene pensamientos depresivos; pueden ver qué conceptos ha dominado un estudiante comparando sus patrones cerebrales con los de su maestro. Al analizar los escáneres cerebrales, un sistema informático puede editar juntas reconstrucciones crudas de los clips de películas que ha visto. Un grupo de investigación ha utilizado una tecnología similar para describir con precisión los sueños de los sujetos dormidos. En otro laboratorio, los científicos han escaneado los cerebros de las personas que leen el cuento de J. D. Salinger “Pretty Mouth and Green My Eyes”, en el que no está claro hasta el final si un personaje está teniendo una aventura o no. Solo a partir de escáneres cerebrales, los investigadores pueden saber a qué interpretación se inclinan los lectores, y observar cómo cambian de opinión.

Escuché por primera vez sobre estos estudios de Ken Norman, el presidente de cincuenta años del departamento de psicología de la Universidad de Princeton y un experto en decodificación de pensamientos. Norman trabaja en el Instituto de Neurociencia de Princeton, que se encuentra en una estructura de vidrio, construida en 2013, que se extiende sobre una colina baja en el lado sur del campus. PNI fue concebido como un centro donde psicólogos, neurocientíficos e informáticos podían combinar sus enfoques para estudiar la mente; MIT y Stanford han invertido en institutos interdisciplinarios similares. En PNI, los estudiantes todavía participan en experimentos psicológicos de la vieja escuela que incluyen encuestas y tarjetas de memoria flash. Pero arriba, en un laboratorio que estudia el desarrollo infantil, los niños pequeños usan sombreros diminutos equipados con escáneres cerebrales infrarrojos, y en el sótano se cortan los cráneos de ratones modificados genéticamente, lo que permite controlar neuronas individuales con láseres. Una sala de servidores con su propio clúster informático de alto rendimiento analiza los datos generados a partir de estos experimentos.

Norman, cuya inteligencia jovial y barba rebelde le dan el aire de un profesor de ciencias de secundaria, ocupa una oficina en la planta baja, con vista a un campo de hierba. Las estanterías detrás de su escritorio contienen el ADN intelectual del instituto, con William James junto a textos sobre aprendizaje automático. Norman explicó que las máquinas de resonancia magnética funcional no habían avanzado tanto; en cambio, la inteligencia artificial había transformado la forma en que los científicos leen los datos neuronales. Esto había ayudado a arrojar luz sobre un antiguo misterio filosófico. Durante siglos, los científicos habían soñado con ubicar el pensamiento dentro de la cabeza, pero se habían topado con la irritante cuestión de qué significa que los pensamientos existan en el espacio físico. Cuando Erasistratus, un anatomista griego antiguo, diseccionó el cerebro, sospechó que sus múltiples pliegues eran la clave de la inteligencia, pero no pudo decir cómo se agrupaban los pensamientos en la enrevesada masa. En el siglo XVII, Descartes sugirió que la vida mental surgía en la glándula pineal, pero no tenía una buena teoría de lo que podría encontrarse allí. Nuestros mundos mentales contienen de todo, desde el sabor del mal vino hasta la idea del mal gusto. ¿Cómo pueden anidar tantos pensamientos en unos pocos kilos de tejido?

Norman explicó que los investigadores habían desarrollado una forma matemática de comprender los pensamientos. Basándose en los conocimientos del aprendizaje automático, concibieron los pensamientos como conjuntos de puntos en un denso “espacio de significado”. Pudieron ver cómo estos puntos estaban interrelacionados y codificados por neuronas. Al descifrar el código, estaban comenzando a producir un inventario de la mente. “El espacio de posibles pensamientos que la gente puede pensar es grande, pero no infinitamente grande”, dijo Norman. Un mapa detallado de los conceptos en nuestras mentes pronto podría estar a nuestro alcance.

Norman me invitó a ver un experimento de decodificación de pensamientos. Un estudiante postdoctoral llamado Manoj Kumar nos condujo a un laboratorio cerrado en el sótano de PNI, donde una mujer joven yacía en el tubo de un escáner de resonancia magnética funcional. Una pantalla colocada unos centímetros por encima de su rostro mostraba una presentación de diapositivas de imágenes de archivo: una playa vacía, una cueva, un bosque.

“Queremos obtener los patrones cerebrales que están asociados con diferentes subclases de escenas”, dijo Norman.

Mientras la mujer miraba la presentación de diapositivas, el escáner rastreó patrones de activación entre sus neuronas. Estos patrones se analizarían en términos de “vóxeles”, áreas de activación que tienen aproximadamente un milímetro cúbico de tamaño. De alguna manera, los datos de la resonancia magnética funcional eran extremadamente toscos: cada vóxel representaba el consumo de oxígeno de aproximadamente un millón de neuronas, y solo podía actualizarse cada pocos segundos, significativamente más lentamente que el disparo de las neuronas. Pero, dijo Norman, “resultó que esa información estaba en los datos que estábamos recopilando, simplemente no estábamos siendo tan inteligentes como podíamos sobre cómo procesar esos datos”. El gran avance se produjo cuando los investigadores descubrieron cómo rastrear patrones que se reproducen en decenas de miles de vóxeles a la vez, como si cada uno fuera una tecla de un piano y los pensamientos fueran acordes.

Los orígenes de este enfoque, según supe, se remontan a casi setenta años, en el trabajo de un psicólogo llamado Charles Osgood. Cuando era niño, Osgood recibió una copia del Tesauro de Roget como regalo. Al leer detenidamente el libro, recordó Osgood, formó una “imagen vívida de palabras como grupos de puntos en forma de estrella en un espacio inmenso”. En sus días de posgrado, cuando sus colegas debatían cómo la cultura podía moldear la cognición, Osgood recordó esta imagen. Se preguntó si, utilizando la idea de “espacio semántico”, sería posible trazar un mapa de las diferencias entre varios estilos de pensamiento.

Osgood realizó un experimento. Pidió a la gente que calificara veinte conceptos en cincuenta escalas diferentes. Los conceptos variaban ampliamente: roca, yo, tornado, madre. También lo hicieron las escalas, que estaban definidas por opuestos: justo-injusto, caliente-frío, fragante-asqueroso. Algunas calificaciones fueron difíciles: es un tornado fragante o asqueroso? Pero la idea era que el método revelaría matices finos e incluso esquivos de similitud y diferencia entre conceptos. “La mayoría de los estadounidenses de habla inglesa sienten que, de alguna manera, hay una diferencia entre “good” y “nice”, pero les resulta difícil de explicar”, escribió Osgood. Sus encuestas encontraron que, al menos para los estudiantes universitarios de los años cincuenta, los dos conceptos se superponían la mayor parte del tiempo. Divergieron por sustantivos que tenían una inclinación masculina o femenina. MADRE podría ser calificada como nice pero no good, y COP viceversa. Osgood concluyó que “good” era “algo más fuerte, más rugoso, más angular y más grande” que “nice”.

Osgood se hizo conocido no por los resultados de sus encuestas, sino por el método que inventó para analizarlos. Comenzó ordenando sus datos en un espacio imaginario con cincuenta dimensiones: una para lo justo y lo injusto, una segunda para lo caliente y lo frío, una tercera para lo fragante y lo sucio, y así sucesivamente. Cualquier concepto dado, como tornado, tenía una calificación en cada dimensión y, por lo tanto, estaba situado en lo que se conocía como espacio de alta dimensión. Muchos conceptos tenían ubicaciones similares en múltiples ejes: amable-cruel y honesto-deshonesto, por ejemplo. Osgood combinó estas dimensiones. Luego buscó nuevas similitudes y volvió a combinar dimensiones, en un proceso llamado “análisis factorial”.

Cuando reduce una salsa, fusiona y profundiza los sabores esenciales. Osgood hizo algo similar con el análisis factorial. Finalmente, pudo mapear todos los conceptos en un espacio con solo tres dimensiones. La primera dimensión era “evaluativa”, una combinación de escalas como bueno-malo, hermoso-feo y amable-cruel. La segunda tenía que ver con la “potencia”: consolidó escalas como grande-pequeño y fuerte-débil. La tercera midió qué tan “activo” o “pasivo” era un concepto. Osgood podría utilizar estos tres factores clave para ubicar cualquier concepto en un espacio abstracto. Las ideas con coordenadas similares, argumentó, eran vecinas en significado.

Durante décadas, la técnica de Osgood encontró un uso modesto en una especie de prueba de personalidad. Su verdadero potencial no surgió hasta los años ochenta, cuando los investigadores de Bell Labs intentaron resolver lo que llamaron el “problema de vocabulario”. La gente tiende a emplear muchos nombres para lo mismo. Este fue un obstáculo para los usuarios de computadoras, que accedían a los programas escribiendo palabras en una línea de comandos. George Furnas, quien trabajaba en el grupo de interacción humano-computadora-interacción de la organización, describió el uso de la guía telefónica interna de la empresa. “Estás en tu oficina, en Bell Labs, y alguien ha robado tu calculadora”, dijo. “Empiezas a poner ‘policía’, ‘apoyo’ o ‘robo’, y no te da lo que quieres. Finalmente, pones ‘seguridad’ y te da eso. Pero en realidad le brinda dos cosas: algo sobre el plan de ahorro y seguridad de Bell, y también lo que estás buscando”. El grupo de Furnas quería automatizar la búsqueda de sinónimos para comandos y términos de búsqueda.

Actualizaron el enfoque de Osgood. En lugar de encuestar a estudiantes universitarios, utilizaron computadoras para analizar las palabras de unos dos mil informes técnicos. Los informes mismos, sobre temas que van desde la teoría de grafos hasta el diseño de la interfaz de usuario, sugirieron las dimensiones del espacio; cuando varios informes usaban grupos de palabras similares, sus dimensiones podrían combinarse. Al final, los investigadores de Bell Labs crearon un espacio que era más complejo que el de Osgood. Tenía unos cientos de dimensiones. Muchas de estas dimensiones describían cualidades abstractas o “latentes” que las palabras tenían en común, conexiones que no serían evidentes para la mayoría de los angloparlantes. Los investigadores llamaron a su técnica “análisis semántico latente” o LSA.

Al principio, Bell Labs utilizó LSA para crear un mejor motor de búsqueda interno. Luego, en 1997, Susan Dumais, una de las colegas de Furnas, colaboró con un científico cognitivo de Bell Labs, Thomas Landauer, para desarrollar un sistema de inteligencia artificial basado en él. Después de procesar la Enciclopedia académica estadounidense de Grolier, un trabajo destinado a estudiantes jóvenes, la IA obtuvo una puntuación respetable en la Prueba de opción múltiple de inglés como lengua extranjera. Ese año, los dos investigadores coescribieron un artículo que abordó la pregunta “¿Cómo es que la gente sabe tanto como sabe con la poca información que obtiene?” Sugirieron que nuestras mentes podrían usar algo como LSA, darle sentido al mundo reduciéndolo a sus diferencias y similitudes más importantes, y empleando este conocimiento destilado para comprender cosas nuevas. Ver una película de Disney, por ejemplo, inmediatamente identifico a un personaje como “el malo”: Scar, de “El Rey León”, y Jafar, de “Aladdin”, parecen muy cercanos. Quizás mi cerebro usa el análisis factorial para destilar miles de atributos (altura, sentido de la moda, tono de voz) en un solo punto en un espacio abstracto. La percepción de la maldad se convierte en una cuestión de proximidad.

En los años siguientes, los científicos aplicaron LSA a conjuntos de datos cada vez más grandes. En 2013, los investigadores de Google lanzaron un descendiente de él en el texto de toda la World Wide Web. El algoritmo de Google convirtió cada palabra en un “vector” o punto, en un espacio de alta dimensión. Los vectores generados por el programa de los investigadores, word2vec, son inquietantemente precisos: si se toma el vector de “rey” y se resta el vector de “hombre”, luego se suma el vector de “mujer”, el vector cercano más cercano es “reina”. Los vectores de palabras se convirtieron en la base de un traductor de Google muy mejorado y permitieron el autocompletado de oraciones en Gmail. Otras empresas, incluidas Apple y Amazon, construyeron sistemas similares. Finalmente, los investigadores se dieron cuenta de que la “vectorización” popularizada por LSA y word2vec podría usarse para mapear todo tipo de cosas. Los sistemas de reconocimiento facial actuales tienen dimensiones que representan la longitud de la nariz y la curvatura de los labios, y los rostros se describen mediante una serie de coordenadas en el “espacio facial”. Las IA de ajedrez utilizan un truco similar para “vectorizar” posiciones en el tablero. La técnica se ha vuelto tan central en el campo de la inteligencia artificial que, en 2017, un nuevo centro de investigación de IA de ciento treinta y cinco millones de dólares en Toronto fue nombrado Vector Institute. Matthew Botvinick, un profesor de Princeton cuyo laboratorio estaba al otro lado del pasillo de Norman, y que ahora es el jefe de neurociencia en DeepMind, la subsidiaria de IA de Alphabet, me dijo que destilar las similitudes y diferencias relevantes en vectores era “la salsa secreta que subyace a todos estos”.

En 2001, un científico llamado Jim Haxby llevó el aprendizaje automático a las imágenes cerebrales: se dio cuenta de que los vóxeles de la actividad neuronal podían servir como dimensiones en una especie de espacio de pensamiento. Haxby pasó a trabajar en Princeton, donde colaboró con Norman. Los dos científicos, junto con otros investigadores, concluyeron que solo unos pocos cientos de dimensiones eran suficientes para capturar los matices de similitud y diferencia en la mayoría de los datos de resonancia magnética funcional. En el laboratorio de Princeton, la joven vio la presentación de diapositivas en el escáner. Con cada nueva imagen (playa, cueva, bosque), sus neuronas se disparaban en un nuevo patrón. Estos patrones se grabarían como vóxeles, luego se procesarían mediante software y se transformarían en vectores. Las imágenes habían sido elegidas porque sus vectores terminarían muy separados entre sí: eran buenos puntos de referencia para hacer un mapa. Viendo las imágenes, mi mente también estaba haciendo un viaje a través del espacio del pensamiento.

El objetivo más amplio de la decodificación del pensamiento es comprender cómo nuestros cerebros reflejan el mundo. Con este fin, los investigadores han buscado observar cómo las mismas experiencias afectan la mente de muchas personas simultáneamente. Norman me dijo que su colega de Princeton, Uri Hasson, ha encontrado películas especialmente útiles en este sentido. “Hacen sincronizar los cerebros de las personas a través del espacio de pensamiento”, dijo Norman. “Lo que hace que Alfred Hitchcock sea el maestro del suspenso es que a todas las personas que están viendo la película se les arranca el cerebro al unísono. Es como el control mental en el sentido literal”.

Una tarde, asistí a la clase de pregrado de Norman “Decodificación de resonancia magnética funcional: lectura de la mente mediante escáneres cerebrales”. Mientras los estudiantes entraban en fila en el auditorio, colocando sus computadoras portátiles y botellas de agua en las mesas, Norman entró con gafas y auriculares de carey, con el cabello despeinado.

Pidió a la clase que viera un clip de “Seinfeld” en el que George, Susan (un ejecutivo de la NBC a quien está cortejando) y Kramer están pasando el rato con Jerry en su apartamento. Suena el teléfono y Jerry responde: es un vendedor telefónico. Jerry cuelga, entre vítores de la audiencia del estudio.

“¿Dónde estaba el límite del evento en el clip?” Preguntó Norman. Los estudiantes gritaron a coro: “¡Cuando sonó el teléfono!” Los psicólogos saben desde hace mucho tiempo que nuestras mentes dividen las experiencias en segmentos; en este caso, fue la llamada telefónica la que provocó la división.

Norman mostró a la clase una serie de diapositivas. Uno describió un estudio de 2017 de Christopher Baldassano, uno de sus postdoctorados, en el que la gente veía un episodio del programa de la BBC “Sherlock” mientras estaban en un escáner de resonancia magnética funcional. La suposición de Baldassano al entrar en el estudio fue que algunos patrones de vóxeles estarían en constante cambio a medida que se transmitía el video, por ejemplo, los involucrados en el procesamiento del color. Otros serían más estables, como los que representan a un personaje en el programa. El estudio confirmó estas predicciones. Pero Baldassano también encontró grupos de voxels que mantuvieron un patrón estable a lo largo de cada escena, luego cambiaron cuando terminó. Concluyó que estos constituían las “firmas” de vóxeles de las escenas.

Norman describió otro estudio, realizado por Asieh Zadbood, en el que se pidió a los sujetos que narraran escenas de “Sherlock”, que habían visto antes, en voz alta. El audio se escuchó para un segundo grupo, que nunca había visto el programa. Resultó que no importaba si alguien vio una escena, la describió o se enteró de ella, se repetían los mismos patrones de vóxeles. Las escenas existían independientemente del espectáculo, como conceptos en la mente de las personas.

A través de décadas de trabajo experimental, Norman me dijo más tarde, los psicólogos han establecido la importancia de los guiones y las escenas para nuestra inteligencia. Al entrar en una habitación, es posible que olvide por qué entró; esto sucede, dicen los investigadores, porque al atravesar la puerta se cierra una escena mental y se abre otra. Por el contrario, mientras navega por un nuevo aeropuerto, un guion de “llegar al avión” une diferentes escenas: primero el mostrador de boletos, luego la línea de seguridad, luego la puerta, luego el pasillo, luego su asiento. Y sin embargo, hasta hace poco, no estaba claro lo que encontraría si buscara “guiones” y “escenas” en el cerebro.

En un estudio reciente de PNI, dijo Norman, las personas en un escáner de resonancia magnética funcional vieron varios clips de películas de personajes en los aeropuertos. Independientemente de los detalles de cada clip, los cerebros de los sujetos brillaron a través de la misma serie de eventos, de acuerdo con los momentos que definen los límites que cualquiera de nosotros reconocería. Los guiones y las escenas eran reales; era posible detectarlos con una máquina. Lo que más le interesa a Norman ahora es cómo se aprenden en primer lugar. ¿Cómo identificamos las escenas de una historia? Cuando entramos en un aeropuerto extraño, ¿cómo sabemos intuitivamente dónde buscar la línea de seguridad? La extraordinaria dificultad de tales hazañas se ve oscurecida por lo fáciles que se sienten; es raro estar confundido acerca de cómo darle sentido al mundo. Pero en algún momento todo fue nuevo. Cuando era un niño pequeño mis padres debieron llevarme al supermercado por primera vez; el hecho de que, hoy en día, todos los supermercados sean de alguna manera familiares atenúa la extrañeza de esa experiencia. Cuando estaba aprendiendo a conducir, fue abrumador: cada intersección y cambio de carril parecía caótico a su manera. Ahora apenas tengo que pensar en ellos. Mi mente descarta instantáneamente todas las diferencias excepto las importantes.

Norman hizo clic en la última de sus diapositivas. Después, algunos estudiantes se acercaron al atril, esperando tener una audiencia con él. Para el resto de nosotros, la escena había terminado. Empacamos, subimos las escaleras y caminamos hacia el sol de la tarde.

Al igual que Monti y Owen con el Paciente 23, los investigadores de decodificación de pensamientos de hoy en día buscan principalmente pensamientos específicos que se hayan definido de antemano. Pero un “decodificador de pensamientos de propósito general”, me dijo Norman, es el siguiente paso lógico para la investigación. Tal dispositivo podría expresar en voz alta los pensamientos de una persona, incluso si esos pensamientos nunca se han observado en una máquina de resonancia magnética funcional. En 2018, Botvinick, compañero de salón de Norman, coescribió un artículo en la revista Nature Communications titulado “Hacia un decodificador universal de significado lingüístico a partir de la activación cerebral”. El equipo de Botvinick había construido una forma primitiva de lo que Norman describió: un sistema que podía decodificar oraciones novedosas que los sujetos leían en silencio a sí mismos. El sistema aprendió qué patrones cerebrales eran evocados por ciertas palabras y usó ese conocimiento para adivinar qué palabras estaban implícitas en los nuevos patrones que encontró.

El trabajo en Princeton fue financiado por iARPA, una organización de investigación y desarrollo dirigida por la Oficina del Director de Inteligencia Nacional. Brandon Minnery, el gerente de proyectos de iARPA para el programa de Representación del conocimiento en sistemas neuronales en ese momento, me dijo que tenía algunas aplicaciones en mente. Si supiera cómo se representa el conocimiento en el cerebro, podría distinguir entre agentes de inteligencia novatos y expertos. Puede aprender a enseñar idiomas de manera más eficaz al ver qué tan cerca la representación mental de una palabra de un estudiante coincide con la de un hablante nativo. La idea más fantástica de Minnery — “Nunca un enfoque oficial del programa”, dijo, fue cambiar la forma en que se indexan las bases de datos. En lugar de etiquetar los artículos a mano, puede mostrar un artículo a alguien sentado en un escáner de resonancia magnética funcional; el estado del cerebro de la persona podría ser la etiqueta. Más tarde, para consultar la base de datos, alguien más podría sentarse en el escáner y simplemente pensar en lo que quisiera. El software podría comparar el estado del cerebro del buscador con el del indexador. Sería la solución definitiva al problema de vocabulario.

Jack Gallant, profesor de Berkeley que ha utilizado la decodificación de pensamientos para reconstruir montajes de video a partir de escáneres cerebrales; mientras miras un video en el escáner, el sistema extrae fotogramas de clips similares de YouTube, basándose solo en tus patrones de vóxel, sugirió que un grupo de las personas interesadas en decodificar eran inversores de Silicon Valley. “Una tecnología del futuro sería un sombrero portátil, como un sombrero para pensar”, dijo. Imaginó una empresa que pagaba a la gente treinta mil dólares al año por usar el sombrero del pensamiento, junto con anteojos de grabación de video y otros sensores, permitiendo que el sistema registrara todo lo que ven, oyen y piensan, creando en última instancia un inventario exhaustivo de la mente. Con el sombrero de pensar, podría hacerle una pregunta a su computadora con solo imaginar las palabras. Podría ser posible realizar una traducción instantánea. En teoría, un par de usuarios podían omitir el lenguaje por completo, conversando directamente, de mente a mente. Quizás incluso podríamos comunicarnos entre especies. Entre los desafíos a los que se enfrentarían los diseñadores de un sistema de este tipo, por supuesto, se encuentra el hecho de que las máquinas de resonancia magnética funcional actuales pueden pesar más de veinte mil libras. Se están realizando esfuerzos para fabricar potentes dispositivos de imágenes en miniatura, utilizando láseres, ultrasonidos o incluso microondas. “Va a requerir algún tipo de revolución tecnológica de equilibrio puntuado”, dijo Gallant. Aún así, se ha sentado la base conceptual, que se remonta a los años cincuenta.

Recientemente, le pregunté a Owen qué significaba la nueva tecnología de decodificación de pensamientos para los pacientes encerrados. ¿Estuvieron cerca de tener conversaciones fluidas usando algo como el decodificador de pensamientos de propósito general? “La mayoría de esas cosas son estudios grupales en participantes sanos”, me dijo Owen. “El problema realmente complicado es hacerlo en una sola persona. ¿Puede obtener datos lo suficientemente sólidos?” Su protocolo básico: pensar en tenis equivale a sí; pensar en caminar por la casa es igual a no: se basó en señales sencillas que eran estadísticamente sólidas. Resulta que el mismo protocolo, combinado con una serie de preguntas de sí o no (“¿El dolor está en la mitad inferior de su cuerpo? ¿En el lado izquierdo?”), sigue funcionando mejor. “Incluso si pudieras hacerlo, tomaría más tiempo decodificarlos diciendo ‘está en mi pie derecho’ que hacer una simple serie de preguntas de sí o no”, dijo Owen. “En su mayor parte, estoy sentado y esperando en silencio. No tengo ninguna duda de que, en algún momento, seremos capaces de leer la mente. La gente podrá articular, ‘Mi nombre es Adrian, y soy británico’, y podremos decodificar eso desde su cerebro. No creo que vaya a suceder probablemente en menos de veinte años”.

De alguna manera, la historia de la decodificación del pensamiento recuerda la historia de nuestra comprensión del gen. Durante unos cien años después de la publicación de “El origen de las especies” de Charles Darwin, en 1859, el gen era una abstracción, entendida solo como algo a través del cual los rasgos pasaban de padres a hijos. Todavía en los años cincuenta, los biólogos seguían preguntando de qué estaba hecho exactamente un gen. Cuando James Watson y Francis Crick finalmente encontraron la doble hélice, en 1953, quedó claro cómo los genes tomaron forma física. Cincuenta años después, pudimos secuenciar el genoma humano; hoy, podemos editarlo.

Los pensamientos han sido una abstracción durante mucho más tiempo. Pero ahora sabemos lo que realmente son: patrones de activación neuronal que corresponden a puntos en el espacio de significado. La mente, el único lugar verdaderamente privado, se ha vuelto inspeccionable desde el exterior. En el futuro, un terapeuta, que desee comprender cómo se desvían sus relaciones, podría examinar las dimensiones de los patrones en los que cae su cerebro. A algunos pacientes epilépticos a punto de someterse a una cirugía se les colocan sondas intracraneales en el cerebro; Los investigadores ahora pueden usar estas sondas para ayudar a desviar los patrones neuronales de los pacientes de los asociados con la depresión. Con un control más detallado, una mente podría conducirse a donde quisiera. (La imaginación se tambalea ante las posibilidades, tanto para el bien como para el mal.) Por supuesto, ya lo hacemos pensando, leyendo, mirando, hablando, acciones que, después de que aprendí sobre la decodificación de pensamientos, me pareció extrañamente concreto. Podía imaginar los patrones de mis pensamientos parpadeando dentro de mi mente. Las versiones de ellos ahora parpadean en el suyo.

En una de mis últimas visitas a Princeton, Norman y yo almorzamos en un restaurante japonés llamado Ajiten. Nos sentamos en un mostrador y repasamos el guion familiar. Llegaron los menús; los revisamos. Norman notó un plato que no había visto antes: “un nuevo punto en el espacio del ramen”, dijo. En cualquier momento, un camarero iba a interrumpir cortésmente para preguntar si estábamos listos para ordenar.

“Tienes que tallar el mundo en sus articulaciones y averiguar: ¿cuáles son las situaciones que existen y cómo funcionan estas situaciones?” Dijo Norman, mientras el jazz sonaba de fondo. “Y ese es un problema muy complicado. No es que te hayan enseñado que el mundo tiene quince formas diferentes de ser, ¡y aquí están! Rió. “Cuando estás en el mundo, tienes que intentar inferir en qué situación te encuentras”. Estábamos en la situación de un almuerzo en un restaurante japonés. Nunca había estado en este restaurante en particular, pero nada me sorprendió. Esto, resulta, podría ser uno de los mayores logros de la naturaleza.

Norman me dijo que a un ex alumno suyo, Sam Gershman, le gusta usar los términos “agrupamiento” y “división” para describir cómo evoluciona el espacio de significado de la mente. Cuando se encuentra con un nuevo estímulo, ¿lo agrega a un concepto que le es familiar o se separa de un nuevo concepto? Cuando navegamos por un nuevo aeropuerto, comparamos su detector de metales con los que hemos visto antes, incluso si este es de un modelo, color y tamaño diferente. Por el contrario, la primera vez que levantamos la mano dentro de un escáner de ondas milimétricas, el dispositivo que ha reemplazado al detector de metales de paso, nos separamos de una nueva categoría.

Norman se centró en cómo la decodificación del pensamiento encajaba en la historia más amplia del estudio de la mente. “Creo que estamos en un punto de la neurociencia cognitiva en el que entendemos muchas de las piezas del rompecabezas”, dijo. La corteza cerebral, una sábana arrugada colocada sobre el resto del cerebro, deforma y comprime la experiencia, enfatizando lo que es importante. Está en constante comunicación con otras áreas del cerebro, incluido el hipocampo, una estructura con forma de caballito de mar en la parte interna del lóbulo temporal. Durante años, el hipocampo fue conocido solo como la sede de la memoria; los pacientes a los que se les había quitado el suyo vivían en un presente perpetuo. Ahora veíamos que el hipocampo almacena los resúmenes que le proporciona la corteza: la salsa después de haberla reducido. Afrontamos la realidad construyendo una vasta biblioteca de experiencias, pero experiencias que se han destilado a lo largo de las dimensiones que importan. El grupo de investigación de Norman ha utilizado la tecnología fMRI para encontrar patrones de voxel en la corteza que se reflejan en el hipocampo. Quizás el cerebro sea como un excursionista comparando el mapa con el territorio.

En los últimos años, me dijo Norman, las redes neuronales artificiales que incluían modelos básicos de ambas regiones del cerebro habían demostrado ser sorprendentemente poderosas. Había un ciclo de retroalimentación entre el estudio de la IA y el estudio de la mente humana real, y se estaba volviendo más rápido. Las teorías sobre la memoria humana estaban informando nuevos diseños para los sistemas de inteligencia artificial, y esos sistemas, a su vez, estaban sugiriendo ideas sobre qué buscar en los cerebros humanos reales. “Es increíble haber llegado a este punto”, dijo.

En el camino de regreso al campus, Norman señaló el Museo de Arte de la Universidad de Princeton. Era un tesoro, me dijo.

“¿Que hay ahi?” pregunté.

“¡Arte grandioso!” dijo.

Después de separarnos, regresé al museo. Fui a la galería de la planta baja, que contiene artefactos del mundo antiguo. Nada en particular me atrapó hasta que vi una túnica de cazador de África Occidental. Estaba hecha de algodón teñido del color del cuero oscuro. De ella colgaban dientes, garras y un caparazón de tortuga, talismanes de asesinatos pasados. Me di cuenta y me quedé un momento antes de seguir adelante.

Seis meses después, fui con unos amigos a una pequeña casa en el norte del estado de Nueva York. En la pared, por el rabillo del ojo, noté lo que parecía una manta, una especie de adorno colgante con flecos hecho de lana y plumas. Tenía una forma extraña; parecía tirar hacia algo que había visto antes. La miré sin comprender. Luego llegó un momento de reconocimiento, a lo largo de dimensiones que no pude articular, más activo que pasivo, a medio camino entre vivo y muerto. Ahí, el pecho. Ahí, los hombros. La manta y la túnica eran distintas en todos los sentidos, pero de alguna manera seguían siendo vecinas. Mi mente se había dividido, luego se había agrupado. Algunos voxels habían brillado. En el vasto espacio de significado dentro de mi cabeza, una pequeña parte del mundo estaba encontrando su lugar apropiado.

https://www.newyorker.com/magazine/2021/12/06/the-science-of-mind-reading

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.