Usted está leyendo ahora mismo el nombre de Jennifer Aniston, y algo increíble está sucediendo en su cerebro: un grupúsculo de neuronas especializadas en la actriz y en nadie más se ha activado, un nivel de conceptualización desconocido en cualquier especie salvo la humana. El neurocientífico bonaerense Rodrigo Quian Quiroga, profesor ICREA en el Instituto de Investigación del Hospital del Mar en Barcelona y anteriormente director del Centro de Neurociencias de Sistemas y jefe de Bioingeniería en la Universidad de Leicester (Reino Unido), realizó el descubrimiento en 2005.
Estas neuronas están ligadas a la estrella de Friends porque ella fue uno de los estímulos para los participantes en el ensayo, pero Quian Quiroga también uso personajes de Star Wars, destapando su amor por un género que ahora cristaliza en su obra Cosas que nunca creeríais [Debate]. "Lo que era ciencia ficción se está convirtiendo en realidad. Para mí, esto era casi un divertimento. Pero lo que me llevó a escribir el libro fue la idea de que, ligando neurociencia y ciencia ficción, terminaba tocando algunas de las grandes preguntas de la filosofía con un enfoque renovado".
Su hallazgo ya vinculaba entonces la ciencia con la cultura popular: las 'neuronas Jennifer Aniston' también son llamadas 'neuronas Luke Skywalker'.
Pero no usé esas actrices y personajes por que me interesase la cultura popular en sí, sino porque les interesaban a los participantes. Fue un estudio con pacientes que tenían electrodos implantados en el cerebro para tratar la epilepsia. Si les hubiera mostrado la foto de un premio Nobel que no conocen y no les interesa, no generarían memorias. Por el contrario, usar imágenes muy conocidas de Jennifer Aniston, Halle Berry, Julia Roberts o Luke Skywalker aumentarían las posibilidades de encontrar neuronas que se activasen específicamente con este estímulo.
¿El cambio de paradigma fue descubrir que esas neuronas no se activaban solo con la imagen, sino con el mismo 'concepto' de Jennifer Aniston?
Lo que descubrí es que estas neuronas no se disparaban con una foto en particular de Oprah Winfrey por ejemplo, sino con siete fotos muy distintas de la misma persona: en una vestida de violeta, en otra con el pelo corto, en otra de perfil... Y si el paciente escuchaba o leía el nombre de Oprah, eran esas mismas neuronas las que se activaban. Eso demuestra que tienen un grado de abstracción muy, muy elevado. No responden a estímulos visuales sino a su significado.
¿Y esta es la capacidad que nos distancia de los animales, incluso de aquellos que comparten una estructura cerebral muy parecida como los primates?
El cerebro de chimpancé no es tan distinto del humano, es un poco más pequeño pero en principio tiene anatómicamente las mismas áreas. Pero una de las grandes diferencias es que nadie ha podido encontrar nunca neuronas parecidas a las de 'Jennifer Aniston'. Lo que trato de encontrar en el laboratorio estos principios de formación o consolidación de memorias que son exclusivamente humanos, y que distinguen nuestra inteligencia de la de otras especies.
¿Es esta capacidad de abstracción y conceptualización también una diferencia con las inteligencias artificiales?
Hasta ahora lo ha sido. Ahora bien, la IA ha avanzado muchísimo en los últimos años y es muy difícil seguir el ritmo de los ajustes. Hace 25 años hablábamos de Deep Blue porque le ganó al ajedrez a Kasparov. Ahora todo el mundo habla con ChatGPT. Pero pese a estos avances muy llamativos y espectaculares, estamos todavía en pañales en materia de 'inteligencia general'. Es la capacidad de aprender algo y aplicarlo en un contexto totalmente distinto. Enseñe a una máquina a jugar al ajedrez y que use esa capacidad, por ejemplo, para aprender a reconocer caras. Lo que una computadora no puede todavía copiar del cerebro humano es la capacidad de generalizar, transmitir conocimientos de un área específica a otra totalmente nueva, algo que nosotros hacemos todo el tiempo y de forma intuitiva.
La IA ha conquistado recientemente otro aspecto que considerábamos propio del hombre, la creación artística. ¿Está superando nuestras previsiones?
Es interesante. En el fondo, definir qué es arte es algo muy difícil. Yo lo veo como un divertimento, pero para el artista es un medio para transmitir su visión de la realidad tal y cómo él la interpreta. Un buen cuadro, una buena pieza de música, un buen poema genera una reacción y emociones. ¿Cabe pensar que una máquina que no siente emociones pueda provocarlas? Sin embargo, se lleva haciendo desde hace décadas, cuando se enseñó a un programa a componer partituras siguiendo las reglas de Mozart. Si una computadora puede copiar la composición artística, no lo veo como una cualidad exclusivamente humana.
Recordando a Blade Runner, ahora buscamos indicios de IA en los pequeños detalles antinaturales, como fotos de manos con los dedos incorrectos.
Si, pero eso es como ir a ver un show de magia y pasártelo entero tratando de descubrir cómo el mago hace los trucos. Si te obsesionas con eso, no vas a disfrutar del show.
¿Y en un sentido más amplio, tienen sentido las alertas que nos previenen sobre el desarrollo de la IA que puede volverse impredecible?
Todavía hay dos grandes retos pendientes en inteligencia artificial. El primero es el de la inteligencia general, de la que ya hemos hablamos. El otro es el de la conciencia. ¿Puede una máquina ser consciente de su propia existencia? Hasta donde yo sé, no hay ningún motivo científico para decir que esto no es posible. Probablemente en unas décadas podamos inducir una máquina a que sea consciente de su propia existencia.
Sobre la consciencia, ya no pensamos como Descartes: mente y cuerpo no están disociados, están intricadamente ligadas por las redes neuronales.
Yo iría más allá: no son dos realidades conectadas sino una única realidad. Si dices que el cerebro produce la mente, le estás dando a la mente una entidad propia. Pero hay una sola cosa, el cerebro. La mente no es ni más ni menos que la manera en la que describimos el proceso de la actividad neuronal. Cuando uno acepta eso, un montón de paradojas filosóficas empiezan a caer.
Y sobre la posibilidad que de nos implanten recuerdos e identidades falsas: ¿No convivimos con memorias falsas a diario?
Muchos de nuestros recuerdos, objetivamente hablando, no se corresponden con la realidad. Los rehacemos y reinterpretamos. No es como en Desafío Total, no vamos a descubrir de repente que todo es una realidad implantada. Pero si te cuento todo lo que pasó cuando fuimos a cenar por el último cumpleaños de mi mujer, la cena será real pero los detalles los estaré inventando. No porque sea mentiroso, sino porque el cerebro tiene un funcionamiento muy básico: construye una realidad a partir de muy poquita información. Y hace inferencias sobre la realidad para completar el sentido. Es al asumir como recuerdos cosas que en realidad no pasaron y que en cambio inferimos cuando metemos la pata. Descubrir lo maleable que es la memoria llevó, por ejemplo, a cambiar el procedimiento para interrogar testigos en juicios en EEUU.
El aumento de la longevidad plantea el reto de la conservación de la memoria. ¿Cómo puede distinguir uno los olvidos normales de los patológicos?
Es muy difícil responder. Uno de los principios fundamentales del cerebro humano es la cantidad de información que olvidamos. ¿Por qué lo hacemos? Para concentramos en lo esencial. Los chimpancés son muy inteligentes, pero son incapaces de alcanzar la metacognición, pensar sobre pensamientos en sí. La contrapartida a la capacidad de abstracción humana es olvidar a diario. No es algo patológico, es lo normal. El cerebro humano no busca recordar sino entender. Es muy cierto que la enfermedad de Alzheimer es devastadora y acuciante, y lo que ya no es normal es olvidar cosas que son muy obvias o fundamentales. Es el gran desafío del alzhéimer, detectarlo lo más temprano posible para tratar de retrasarlo.
Ya no memorizamos números de teléfono o direcciones, pero usted sostiene que no tenemos por qué temer delegar nuestros recuerdos en la tecnología.
Basta leer un poquito de filosofía: hace 2000 años más o menos, con la llegada de la escritura, los griegos se planteaban lo mismo. "¿No empezaremos a ser más tontos porque recordaremos menos?". Hoy en día nos estamos planteando lo mismo. ¿Por qué recordar algo si lo puedo googlear? Yo creo que es saludable delegar funciones en dispositivos externos, no quiero tener que acordarme de todas las reuniones de la semana. Prefiero dedicar los recursos de mi cerebro a otras cosas. Lo mismo con la navegación: si no tengo una necesidad real de conocer las calles, no hay nada de malo en liberar el cerebro y que Google las recuerde por tí.