La inteligencia artificial nos ha llevado un paso más cerca de las máquinas de ciencia ficción que leen la mente.

Investigadores han desarrollado algoritmos de “aprendizaje profundo” -más o menos modelados con base en el cerebro humano- para descifrar, el cerebro humano.

Primero, construyeron un modelo de cómo el cerebro codifica la información. Tres mujeres pasaron horas viendo cientos de videos cortos, una máquina de resonancia magnética funcional midió señales de actividad en la corteza visual y en otros lugares.

Un tipo popular de red neuronal artificial utilizada para el procesamiento de imágenes aprendió a asociar imágenes de video con actividad cerebral. A medida que las mujeres miraban clips adicionales, la actividad predicha del algoritmo se correlacionaba con la actividad real en una docena de regiones cerebrales. También ayudó a los científicos a visualizar qué características estaba procesando cada área de la corteza cerebral. Otra red decodificó las señales neuronales: en función de la actividad cerebral de un participante, podía predecir con un 50% de precisión lo que estaba viendo.

El avance podría ayudar a los esfuerzos para mejorar la inteligencia artificial y conducir a nuevos conocimientos sobre la función cerebral. Es fundamental para la investigación un tipo de algoritmo llamado red neuronal convolucional, que ha sido fundamental para permitir que las computadoras y los teléfonos inteligentes reconozcan rostros y objetos.

Las redes neuronales convolucionales, una forma de algoritmo de “aprendizaje profundo”, se han utilizado para estudiar cómo el cerebro procesa imágenes estáticas y otros estímulos visuales. Sin embargo, los nuevos hallazgos representan la primera vez que se ha usado este enfoque para ver cómo el cerebro procesa películas de escenas naturales, un paso hacia la decodificación del cerebro mientras las personas intentan dar sentido a un entorno visual complejo y dinámico.

Si la red se hubiera entrenado en datos del cerebro de una mujer diferente, aún podría categorizar la imagen con aproximadamente 25% de precisión, informaron los investigadores. La red también podría reconstruir parcialmente lo que un participante vio, convirtiendo la actividad cerebral en píxeles, pero las imágenes resultantes fueron poco más que manchas blancas.

Los investigadores esperan que su trabajo conduzca a la reconstrucción de las imágenes mentales, que utiliza algunos de los mismos circuitos cerebrales del procesamiento visual. Traducir la visión de la mente en pedacitos podría permitir a las personas expresar pensamientos vívidos o sueños a computadoras u otras personas sin palabras o clics del mouse, y podría ayudar a aquellos con accidentes cerebrovasculares que no tienen otra manera de comunicarse.

Los investigadores grabaron 11.5 horas de datos de fMRI de cada una de las tres mujeres que vieron 972 video clips, incluyendo aquellos que mostraban personas o animales en acción y escenas de la naturaleza. Primero, los datos se usaron para entrenar el modelo de red neuronal convolucional para predecir la actividad en la corteza visual del cerebro mientras los sujetos miraban los videos. Luego usaron el modelo para decodificar los datos de fMRI de los sujetos para reconstruir los videos, incluso aquellos que el modelo nunca había visto antes.
El modelo fue capaz de decodificar con precisión los datos de fMRI en categorías de imágenes específicas. Las imágenes de video reales se presentaron lado a lado con la interpretación de la computadora de lo que el cerebro de la persona vio en una base a datos de fMRI.

Los investigadores pudieron descubrir cómo ciertos lugares en el cerebro se asociaron con información específica que una persona estaba viendo.

Más información: Purdue