El investigador José del Rocío Millán.

El investigador José del Rocío Millán. Universidad de Texas

Salud

José del R. Millán, el científico que mueve objetos con la mente: "La gente lo veía esotérico"

"El siguiente paso depende ya de las empresas, no de los investigadores" / "Una interfaz cerebral no lee la mente, es un mito" / "Una persona sana no va a tener motivación para controlar un patín con su mente" / "La lógica de Elon Musk es la del inversor, no del investigador"

15 junio, 2024 03:12

Cuando José del Rocío Millán comenzó a interesarse en las interfaces cerebrales, la gente le miraba casi asustada. "Les parecía algo esotérico", comenta por videollamada desde Austin (Texas). No era para menos, pues buscaba la forma de manipular objetos a distancia con la mente.

Hoy en día, es una de las figuras mundiales de referencia en este campo, que ha vivido una explosión en los últimos años y augura otra supernova tras la entrada de Elon Musk el pasado enero, cuando anunció que su primer chip cerebral había sido implantado en una persona.

En realidad, Musk va muy por detrás de Millán. Este onubense lleva desde los años 90 buscando la mejor manera de 'traducir' señales cerebrales en órdenes para máquinas y computadoras.

Y lo hace sin necesidad de implantar un chip. Mediante un gorro lleno de electrodos, es capaz de mover una silla de ruedas con solo pensarlo.

La primera prueba de éxito fue hace más de diez años, cuando trabajaba en el Centro de Neuroprótesis de la Escuela Politécnica Federal de Lausanne (Suiza), y desde entonces ha ido refinando el modelo hasta transformarlo en algo factible y útil para la sociedad.

Porque Millán se dedicaba a investigar robots autónomos hasta que, un día, conoció a dos personas con discapacidad motora y tuvo una epifanía: a partir de ese momento, se dedicaría a estudiar cómo ayudarles a superar sus impedimentos físicos.

Hace dos años, ya en la Universidad de Texas (donde es profesor de la Cátedra de Ingeniería Carol Cockrell Curran y de Neurología de la Escuela Médica Dell), logró que tres individuos con tetraplejía pudieran mover con la mente la silla de ruedas en la que estaban sentados. Ya no había prueba de concepto: hasta ese momento, este tipo de experimentos se habían realizado en personas sanas y con interfaces 'duras' que "llevan al dispositivo a controlar más o menos a la persona y no al revés", como lo describían desde la universidad.

Por eso, al preguntarle qué falta para que veamos esas sillas de ruedas fuera de un contexto experimental se muestra tajante. "Eso ya no está en manos de los investigadores sino de los empresarios. Y ellos, de los sistemas de salud, que son quienes van a pagar esa silla".

Y los sistemas de salud piden "evidencia, que se demuestre que las personas con un cierto tipo de discapacidad tendrán una mejor calidad de vida. Para eso hacen falta más ensayos clínicos que muestren la seguridad de la intervención".

Aunque Elon Musk ha popularizado las interfaces cerebrales, tienen más de medio siglo de historia. En los años 60 surgieron los primeros experimentos que reconocían dónde estaba centrando su mirada una persona con solo observar la actividad cerebral.

Pero fue en los 90 cuando comenzó de verdad la carrera por conectar mente y máquina. "Empezaron a haber sistemas portables de registro de encefalogramas", explica a EL ESPAÑOL.

"Mejoró el acceso. Ahora, la gente podía poner manualmente un electrodo, enganchar una neurona y decodificar su actividad, Luego, con los primeros sistemas de multielectrodos, se empezaron a analizar varias neuronas a la vez".

En los últimos años todo ese conocimiento se ha ido replicando y consolidándose. "Se han hecho mejoras incrementales pero no han emergido nuevos paradigmas: se trata de una acumulación de sedimentos".

Estos avances, sin embargo, han sido cruciales para que sus futuros usuarios, como las personas con dificultades motoras por las secuelas de un ictus, puedan beneficiarse de ellos.

José del Rocío abrevia su nombre compuesto con una 'R.' "porque los nombres españoles son demasiado largos a nivel internacional", señala con la sorna de alguien acostumbrado a que le pregunten por ello.

Uno de los pacientes con tetraplejía que logró mover la silla de ruedas con la mente.

Uno de los pacientes con tetraplejía que logró mover la silla de ruedas con la mente. Universidad de Texas

Y se pone serio. "Una interfaz cerebral no lee la mente, es un mito", aclara. "No lo conseguiríamos ni aunque quisiéramos".

¿Qué hace entonces? Leer patrones en la actividad de las neuronas. "No es el cerebro en sí sino la actividad eléctrica del cerebro, que codifica las diferentes tareas".

Y esto en cada persona en distinto. "Aunque tú y yo hagamos el mismo movimiento con la mano, tú vas a tener otro patrón. ¿Por qué? Lo que diferencia un cerebro y otro no es tanto el número de neuronas que tengamos como los patrones de conexión entre ellas".

Para interpretar esos patrones hace falta inteligencia artificial. "Es el descodificador que nos permite diferenciar la tarea a de la tarea B y saber que la persona quiere efectuar un movimiento concreto".

Para ello hacen falta cantidades ingentes de datos. Al tener cada persona patrones cerebrales distintos, esto implicaba que se requería tiempo y esfuerzo para entrenar al modelo —y a la persona— en el manejo de la silla de ruedas.

Un modelo que se auto-calibra

El logro más reciente de Millán y su equipo ha ido precisamente en este sentido. El pasado abril lograron que el modelo entendiera casi al instante a cada uno de los 18 sujetos —sin discapacidades motoras esta vez— que se puso el caso de electrodos para jugar a un sencillo videojuego de carreras.

El sistema conseguía auto-calibrarse, es decir, que no le hacía falta adquirir una gran cantidad de datos previos de la persona. "Nos permite empezar el entrenamiento, porque usar la interfaz requiere un aprendizaje, con el modelo de otra persona que ya sabe hacerlo bien", explica.

Por eso, la llegada de la llamada inteligencia artificial general, la que impulsa modelos como ChatGPT, va a suponer un nuevo avance. "Podremos hacer un análisis directo de lo que quiere comunicar, de lo que quiere hacer, la persona".

Porque una interfaz es lenta "comparada con cuántas cosas podemos comunicar con el lenguaje, con nuestro cuerpo", continúa del científico.

"La ventaja de un modelo general de inteligencia artificial es con unos pocos comandos, si detrás tenemos un mecanismo muy poderoso, vamos a conseguir expresar acciones o conceptos muy sofisticados, sin necesidad de dar todos los detalles".

Millán, con voluntarios sanos que manejaron un videojuego con su mente.

Millán, con voluntarios sanos que manejaron un videojuego con su mente. Universidad de Texas

Aunque el enfoque de Millán son las personas con problemas cognitivos y motores, no se le escapa que en un futuro cualquiera podrá adquirir un vehículo que moverá con la mente: un patín eléctrico o un coche. Pero no cree que la idea tenga demasiado recorrido.

"No hay ninguna diferencia conceptual para convertir esto en un medio de transporte personal. Lo que ocurre es que el número de comandos que se puede descodificar hoy en día a través de una interfaz cerebral son pocos y lentos. Probablemente, una persona sana no tenga ninguna motivación para controlar el patín con su mente: con su cuerpo va a tener un control mucho más fluido y rápido".

También queda otra cuestión. Todos andamos sorteando personas y obstáculos y adaptando el pie al terreno sin apenas darnos cuenta, mientras pensamos en nuestras cosas o vamos hablando con quien está a nuestro lado.

Sin embargo, dar un comando a una máquina requiere prestar atención a la máquina. ¿Se puede viajar con la silla de ruedas con la misma despreocupación con que paseamos por la calle?

"Nosotros hemos mostrado que las personas tetrapléjicas pueden conducir sus sillas de ruedas de una manera muy eficaz, y hemos demostrado que no requiere una atención permanente. Todavía no estamos al mismo nivel de cómo controlamos nuestro cuerpo mientras, por ejemplo, nos movemos en una multitud sin chocarnos con las otras personas, pero estamos empezando a desarrollar técnicas que nos permiten determinar cuándo una persona está enfocada en dar un comando y cuándo no, y automatizar ciertas tareas".

Para esto, la robótica y conducción autónoma, campos en los que investigaba Millán antes de dar el salto a manejar máquinas con la mente, está aportando soluciones.

Frente a los chips de Musk, el casco inalámbrico de Millán parece más cómodo, menos arriesgado y menos invasivo. Pero el onubense cree que ambas opciones coexistirán, al igual que los médicos pueden elegir un tratamiento u otro a la hora de prescribir el remedio a una enfermedad.

"No todos los tratamientos son igual de efectivos en todas las personas. Si algo no es efectivo para mí, es mejor tener otra opción: si no vale la A, iremos a la B. El hecho de tener diferentes tipos de implantes es bueno, todo va a coexistir".

Como cuestión de fondo está el tema de los neuroderechos. Aunque estos dispositivos no puedan leernos la mente, sí que registran datos de actividad que pueden ser aprovechados de una forma que desconocemos.

"Yo creo que los políticos se lo están tomando en serio", opina Millán. "Tenemos que garantizar que su utilización es responsable y respeta los derechos de cada individuo".

Sin embargo, no está tan claro que los usuarios no aceptemos simplemente las "cookies mentales" y las empresas puedan utilizar datos cerebrales con nuestro consentimiento.

"Vista la experiencia que tenemos de cómo somos tan generosos aceptando cookies cada vez que queremos un servicio sin prestar atención, no veo por qué las cosas van a cambiar con esto".

Porque Millán y su equipo, como tantos otros en el mundo, buscan mejorar la vida de los pacientes. "Pero la lógica de Elon Musk es la del inversor. Y la lógica del inversor es saber cuánto cotizo en bolsa".