Una IA ha sido capaz de replicar las imágenes que está viendo una persona a partir de sus ondas cerebrales. Decodifica sus pensamientos y los reconstruye fuera del cerebro en tiempo real.
Investigadores rusos han desarrollado una interfaz cerebro-ordenador que es capaz de dibujar lo que una persona está mirando porque decodifica sus ondas cerebrales con la ayuda de la Inteligencia Artificial.
La interfaz se basa en redes neuronales artificiales y en electroencefalografía o EEG, una técnica que registra ondas cerebrales a través de electrodos colocados de manera no invasiva en el cuero cabelludo.
Al analizar la actividad cerebral, el sistema de Inteligencia Artificial es capaz de reconstruir en tiempo real las imágenes vistas por una persona sometida a EEG.
Se trata de toda una proeza tecnológica porque hasta ahora se pensaba que los procesos cerebrales observados mediante EEG eran insuficientes para obtener información precisa de lo que realmente está viendo o pensando una persona.
Pero esta tecnología, desarrollada en el Instituto de Física y Tecnología de Moscú (MIPT) y la empresa rusa Neurobotics, ha confirmado que es posible reconstruir en tiempo real una imagen que está siendo observada por una persona.
Metodología
Los científicos lo comprobaron colocando una capa de electrodos en el cuero cabelludo de los participantes en el experimento, con la finalidad de registrar sus ondas cerebrales.
A continuación propusieron a los voluntarios que miraran fragmentos de video, de 10 segundos de duración, durante 20 minutos.
El equipo seleccionó cinco categorías de videos arbitrarios: formas abstractas, cascadas, rostros humanos, mecanismos de movimiento y deportes de motor.
Al analizar los datos EEG, los investigadores observaron que los patrones de ondas cerebrales son distintos para cada categoría de videos. Esto permitió al equipo conocer la reacción del cerebro a los diferentes videos.
Redes neuronales
En la segunda fase del experimento, los investigadores se centraron solamente en tres de las cinco categorías de videos y entrenaron a dos redes neuronales para dos cometidos específicos.
La primera red neuronal tenía que generar imágenes aleatorias a partir del “ruido” de las imágenes de los vídeos seleccionados. Este proceso se refiere a la granulación que ocasionalmente aparece en las imágenes cuando pierden nitidez.
La segunda red neuronal no trabajaba con los vídeos, sino con las imágenes EEG obtenidas en la fase anterior. Su función era generar un “ruido” similar a las imágenes de los vídeos, a partir de los datos proporcionados por la electroencefalografía.
El experimento desembocó en la fase decisiva: ambas redes fueron entrenadas para colaborar y convertir las imágenes EEG en imágenes reales, similares a las que habían observado los voluntarios en la primera fase y que habían sido procesadas por la primera red neuronal.
Tres pasos
Es decir, lo que ha conseguido esta investigación es, por un lado, escanear las reacciones cerebrales ante determinadas imágenes. En segundo lugar, ha generado imágenes difusas a partir de lo que presentaban los videos.
En tercer lugar, han generado imágenes difusas a partir de los registros EEG. Y finalmente, ha combinado ambos resultados para replicar en tiempo real lo que los voluntarios estaban viendo, gracias a la Inteligencia Artificial.
Resultado, las redes neuronales dibujaron en tiempo real imágenes sorprendentemente precisas (aunque difusas) de lo que una persona estaba mirando, únicamente a partir de sus datos EEG.
Esta investigación permitirá diseñar interfaces cerebro-ordenador que superen las limitaciones de las actuales, que requieren implantes cerebrales que se oxidan y presentan fallos a los pocos meses.
Un largo camino
La nueva técnica no es invasiva y será más útil para el tratamiento de trastornos cognitivos, así como para la rehabilitación posterior al accidente cerebrovascular, señalan los investigadores en un comunicado.
Este invento desarrolla y potencia otros anteriores que se aproximan a la lectura de los pensamientos humanos y a su réplica por otros métodos.
Por ejemplo, de una forma más imprecisa, basada en fMRI (cambios en el flujo de sangre del cerebro), científicos holandeses han conseguido que una IA consiga también leer la mente.
Por otro lado, tal como informamos en otro artículo, ingenieros del MIT han creado asimismo un casco que es capaz de escuchar los pensamientos humanos, a partir de las señales neuromusculares que sirven de base al lenguaje hablado, y de transcribirlos en una pantalla.
Referencia
Natural image reconstruction from brain waves: a novel visual BCI system with native feedback. Grigory Rashkov, Anatoly Bobe, Dmitry Fastovets, Maria Komarova. bioRxiv. DOI: https://doi.org/10.1101/787101