Los polémicos premios Nobel y la inteligencia artificial que importa
Alegría y alboroto en el campo de la inteligencia artificial. Este año, los premios Nobel se han subido al hype, con dos premios dedicados a la IA: el de Física y el de Química. “La ciencia que hacemos ahora sigue ‘modas’ que nos permiten competir para publicar y obtener fondos, y los Nobel siguen esta tendencia”, señala Sonia Contera, catedrática de Física Biológica en la Universidad de Oxford, en entrevista con DISRUPTORES - EL ESPAÑOL.
Esta no es la única crítica, ni la más voraz, a ambos premios. Los Nobel nunca están exentos de objeciones, y la inteligencia artificial levanta pasiones. El galardón más controvertido ha sido el de física, que ha recaído en John Hopfield y Geoffrey Hinton por “utilizar herramientas de la física para construir métodos que ayudaron a sentar las bases del poderoso aprendizaje automático actual (...) basado en redes neuronales artificiales”, según la Real Academia Sueca.
“Es un premio al plagio y la atribución incorrecta de trabajos en Ciencias de la Computación”, afirma en X Jürgen Schmidhuber, científico pionero en el campo de la IA. Schmidhuber apunta que ni Hopfield ni Hinton fueron los inventores de las tecnologías por las que se les ha reconocido, y les acusa de no haber citado a sus creadores originales.
Por su parte, Gary Marcus, profesor emérito de la Universidad de Nueva York y referente también en el campo de la IA, coincide con la valoración de Schmidhuber, y critica además el “dogmatismo” de Hinton. Afirma asimismo que, si bien este “ha tenido una profunda influencia en el [campo del] aprendizaje automático, aún no está del todo claro por qué ganó el premio en concreto ni cómo ello ha contribuido a hacer avanzar la física”.
Contera también lo cuestiona: “Los modelos de Hinton son interesantes pero han tenido una aplicación limitada. No ha descubierto algo fundamental para entender la realidad, que es lo que nos interesa a los físicos. Más bien lo contrario, a Hinton le gusta antropomorfizar sus resultados, y ajustar la realidad a sus modelos”.
La catedrática y subdirectora del departamento de Física de la Universidad de Oxford, considera que “a los científicos que solo se basan en modelos matemáticos, buscando la utilidad del momento, les falta, a menudo, un pie en la realidad; no ven que estas teorías tienen problemas”.
“La IA tiene muchas ‘alucinaciones’ (como le gusta enfatizar a Hinton) y consume mucha energía. Pero muchos de los desarrolladores de algoritmos no se preocupan por esto: crean sus modelos de espaldas a sus implicaciones éticas o físicas, en un mundo idealizado. Para ellos solo somos números. No pretenden humanizar la tecnología sino digitalizar a los humanos”, afirma la física.
Contera reivindica la importancia de su campo para el desarrollo de la IA. De hecho, sitúa su nacimiento en la confluencia de la física, la matemáticos y la neurociencia a principios del siglo XX: “Es entonces cuando el matemático Kurt Gödel empieza a ver límites en sus teoremas de la teoría de la lógica, al tiempo que Santiago Ramón y Cajal avanzaba en su teoría de redes neuronales del cerebro, y el matemático y físico cuántico John Von Neumann se decidía por a la física de la información. En esta confluencia se conformó un campo interdisciplinar del que emergió la IA”.
Química proteica
Menos cuestionado, aunque no exento de críticas, ha sido el Nobel de Química de 2024 para Dave Baker y para Demis Hassabis y John Jumper (cofundador y director de Google DeepMind, respectivamente) por “descifrar el código de las sorprendentes estructuras de las proteínas” mediante inteligencia artificial.
El trabajo de estos investigadores cristalizó en el sistema AlphaFold que, gracias a su capacidad para analizar grandes volúmenes de datos y hacer extrapolaciones, predijo más de 350.000 estructuras del cuerpo humano y de otros 20 organismos como los ratones o la Drosophila melanogaster.
La revista Nature lo describió como un “vasto tesoro de proteínas” que contiene la estructura de casi todo el proteoma humano. Un antes y un después para la investigación biomédica y la lucha contra las enfermedades. Algo que, por otra parte, no habría sido posible sin el trabajo de decenas de años y de miles de investigadores e investigadoras antes de la existencia de AlphaFold, como señala Contera.
“Hasta en eso patinan un poco en el Nobel, porque dan el premio a la predicción de proteínas a AlphaFold cuando en realidad las proteínas se empezaron a predecir antes. DeepMind puso potencia de cómputo, pero la IA por sí sola no hubiera solucionado el problema de la estructura de las proteínas que se basa en décadas de investigación experimental y computacional. El equipo de Baker fue el primero que pudo predecir estructuras, sin IA, antes que AlphaFold”, asegura la Catedrática de Oxford.
Otra crítica a este Nobel está motivada por la rapidez con la que se ha otorgado el premio a un avance con tan poco tiempo de recorrido. “Normalmente, estos premios se otorgan a investigaciones muy consolidadas con una vida de dedicación”, afirma Francisco Martín-Martínez, investigador y profesor asociado de Química Computacional en King’s College London.
Martín-Martínez cita, por ejemplo, el Nobel de Química de 2013, que premió un trabajo que Martin Karplus, Michael Levitt y Arieh Warshely empezaron a desarrollar en los años 70 del siglo pasado. “El uso de modelos de inteligencia artificial para acelerar el descubrimiento de la estructura de las proteínas aún está por desarrollarse. Se tienen que probar muchas cosas más allá del tipo de proteína para las que están entrenados sistemas como AlphaFold”, añade.
No obstante, el científico asegura que el Nobel ha sido bien recibido por quienes trabajan en su campo. “Estamos de celebración”, asegura. En su laboratorio en Kings College -el Multiscale modeling LAB- combinan la química computacional con la biomimética y el aprendizaje automático para desarrollar moléculas y materiales inspirados “en la inteligencia de la naturaleza”, con aplicaciones en agricultura de precisión, infraestructuras autorreparadoras o almacenamiento de energía.
Endogamia académica y ciencia cautiva
Siguiendo con los Nobel, otro problema conocido de estos premios es la endogamia. Un análisis de Nature muestra que casi todos los laureados comparten algún tipo de conexión: “La increíble cifra de 702 de los 736 investigadores que han ganado premios científicos y económicos hasta 2023 son parte de la misma familia académica”, señala la revista científica.
En muchos casos, los Nobel son investigadores que han trabajado para otros Nobel. “Es decir, que para tener un Nobel lo que más ayuda es que tu jefe tenga un Nobel. Los comités los forman los científicos que tienen éxito en este marco, que determinan adónde va el dinero y qué es importante”, señala Contera.
Otro sesgo notorio en estos galardones es el de género. En 2023, la cifra era de 65 mujeres versus 905 hombres premiados a lo largo de su historia, según Statista. Este año, de los diez Nobel que conocemos hasta la fecha, solo uno ha reconocido a una mujer (Han Kang, Premio Nobel de Literatura).
“Así es difícil fomentar el progreso intelectual en ninguna ciencia”, sostiene la física de Oxford. Considera que esto es una consecuencia de la profesionalización de la ciencia moderna, “en la que se valora menos la docencia que la producción académica, el impacto de tus artículos en las revistas científicas más conocidas, el número de publicaciones y la cantidad de fondos de investigación que puedes conseguir, además de si has logrado crear una startup”.
La catedrática cree que esto tiene aspectos positivos pero también un impacto negativo, en concreto en que “muy pocos investigadores tengan un conocimiento profundo de su materia”. “Los grandes científicos del pasado entendían la trayectoria intelectual de los campos. Esto ahora no se valora. Lo único que se hace es seguir las modas, seguir el dinero, seguir el impacto de revista. A quien olvida la historia y no tiene tradición, lo único que le queda es la moda”, señala.
La científica también sostiene que ya no hay escuelas de pensamiento ni un diálogo socrático que refleje la pluralidad de visiones en la ciencia. “Solo hay grupos de influencia que se forman para conseguir fondos de investigación, siguiendo la lógica y la ética utilitarista, e incluso dentro de esos grupos el incentivo es competir todos contra todos. Para rematar, las revistas científicas apuntalan la homogeneización del statu quo”, expone.
También hay una fuga de talento al sector privado, a su juicio motivada -en parte- por el “conservadurismo de la academia”, que debilita la meritocracia. Tres de los cinco premiados en los Nobel de Física y de Química (Hinton, Hassabis y Jumper, también galardonados con el Premio Fronteras del Conocimiento de la Fundación BBVA en 2023), son, o han sido, científicos en Google, y el trabajo de otro de ellos (Baker) ha sido financiado por Microsoft.
“Muchos investigadores creen que en las grandes empresas pueden escapar del conservadurismo académico y, al mismo tiempo, tener un mayor impacto social. El problema es que, en muchos casos, el sector corporativo se alinea con el statu quo”, prosigue Contera.
Además, hay una lucha entre dos mundos. La forma tradicional de hacer ciencia -buscando fondos de investigación públicos- se menoscaba en competición con la irrupción de actores privados, con mucho mayor músculo financiero. La llegada de la IA aumenta la brecha, ya que este conjunto de tecnologías añade una nueva variable: requieren muchísima energía y capacidad cómputo, y por tanto muchos recursos, como apunta la científica.
Así, la ciencia, queda en muchos casos cautiva de las prioridades del sector privado y del orden establecido. Contera cree que los Nobel son un reflejo de esto, “la élite científica que se reúne a decidir el statu quo”. Considera que es una institución necesaria, aunque necesitada de mejoras.
La IA que importa
Tratando de verle el lado positivo a estos premios, tal vez la visibilidad que van a dar a la aplicación de la IA a la ciencia básica, con el ejemplo de AlphaFold, fomente nuevas inversiones en este campo realmente transformador, frente a aplicaciones más conocidas y de menor alcance como los chatbots de inteligencia artificial generativa.
“Los LLM han aportado fama y dinero, pero no han aportado ninguna solución sólida para resolver ningún problema particular con gran fiabilidad. Sigue siendo [una IA] opaca, plagada de alucinaciones y errores estúpidos, y codiciosa hasta el extremo en su necesidad de electricidad, agua y datos”, escribía en su blog.
Marcus también sostiene que AlphaFold “es una enorme contribución tanto a la química como a la biología” y “una de las dos mayores contribuciones de la IA hasta la fecha, si no la mayor”. No es la única de esta magnitud. En 2023, DeepMind hizo algo parecido pero aplicado a la ciencia de materiales: GNoME.
Desde su laboratorio en King’s College, Martín-Martínez y su grupo también están haciendo aportaciones a este campo. Cuenta que han desarrollado un método innovador que permite reducir sustancialmente el tamaño de las matrices de datos de gran envergadura que codifican la estructura de moléculas en un formato legible por un ordenador. Estas matrices representan estructuras complejas con hasta 15.000 o 20.000 elementos por lado, y han logrado reducir una de sus dimensiones a solo dos valores numéricos (sin perder la capacidad de la matriz de describir la estructura molecular).
“Como consecuencia, IA puede predecir la estructura y las propiedades de las moléculas con una mayor eficiencia: un menor uso de memoria y de tiempo de cálculo. Y también un menor consumo energético, ya que el impacto medioambiental de estas tecnologías es considerable”, explica el científico.
Además -añade- se facilita el acceso a este tipo de tecnología a investigadores que no pueden hacer uso de centros de supercomputación para estos procesos. Todo esto, siempre según el científico, que adelanta a DISRUPTORES - EL ESPAÑOL que próximamente esperan publicar este avance en la revista científica Digital Discovery.
Esto es CIENCIA con mayúsculas. Esto es la IA que importa.