Estamos hablando de ciencia, no de ficción. Hablamos de una de las muchas posibilidades que la inteligencia artificial pone en manos de los investigadores. Nuevas aplicaciones de las intefaz cerebro-máquina una tecnología basada en la captación de ondas cerebrales que un ordenador interpreta y traduce en señales operativas. Con ella, por ejemplo, personas con discapacidad pueden rehabilitar una función motora.
Es una manera de “leer la mente” que ahora un equipo de investigadores de la Universidad de Helsinki han utilizado para desarrollar un programa que permite hacer visibles en la pantalla del ordenador los pensamientos de quien está conectado a la interfaz. El sistema se apoya en la inteligencia artificial para potenciar la relación cerebro-ordenador para conseguir dar forma a las señales neuronales convirtiéndolas en imágenes en la pantalla. Es decir, permite que podamos ver lo que una persona está imaginando al mismo tiempo que ella lo está pensando.
Modelado neuroadaptivo generativo
Hasta ahora interfaces cerebro-ordenador similares han llegado a conseguir deletrear letras individuales o mover un cursor. Pero este desarrollo es el primero en el que tanto la presentación de la información como las señales cerebrales de la computadora se modelaron simultáneamente utilizando métodos de inteligencia artificial. Sus creadores llaman a este nuevo sistema modelado neuroadaptivo generativo.
Esta tecnología, cuyos resultados se han publicado en Scientific Reports, ha sido demostrada con la colaboración de 31 voluntarios. A todos los participantes se les mostraron cientos de imágenes generadas por IA de personas de diferente aspecto: jóvenes o mayores, otras morenas o rubias, unas sonreían y otras no. Mientras miraban las imágenes, la red neuronal registró mediante encefalografía (EEG) la actividad bioeléctrica de sus cerebros y los patrones correspondientes a las características de cada cara.
Luego se pidió a los voluntarios que se concentraran en aquellas caras que tenían unas determinadas características: unos voluntarios en las que sonreían, otros en las que parecían envejecidas. De esta forma, la red neuronal identificó los parámetros preferidos de las caras (diagramas eléctricos) de cada una de las personas que participaron en el experimento. Así se entrenó a la inteligencia artificial para que pudiera determinar en qué cara estaba pensando cada uno de ellos. Y en la pantalla apareció una imagen virtual completamente nueva que se correspondía en un 83% con lo que el voluntario estaba pensando.
Esta imagen digitalizada “imaginada” en el experimento tiene una resolución insólita porque el nuevo interfaz aplica una rama de la inteligencia artificial, conocida como red generativa antagónica (GANs por sus siglas en inglés). Esta red generativa es una forma avanzada de aprendizaje profundo que genera imágenes casi idénticas a las reales. Lo consigue gracias a la experiencia adquirida por sus algoritmos en el procesamiento de la información.
Esta nueva técnica ofrece muchas posibilidades en campos como la psicología y la neurociencia cognitiva. Pero tal como anuncian los propios investigadores, abre un nuevo camino en aspectos relacionados con la creatividad. "Imagina que quieres dibujar o ilustrar algo, pero no acabas de conseguirlo. El ordenador puede ayudarte a lograr tu objetivo. Podría descifrar dónde pones el foco de atención y predecir lo que le gustaría crear", asegura Tuukka Ruotsalo, uno de los miembros de la investigación.