A finales de diciembre de 2022, Open AI lanzó oficialmente ChatGPT y se desató la locura en torno a la inteligencia artificial en todo el mundo, España incluida. Ese primer atisbo de lo que era capaz una IA generativa funcionó como una bola de nieve que devino en una avalancha ahora imparable. Pero hay investigadores e ingenieros como Francisco Muñoz Martínez que, pese a su juventud, llevan trabajando en ello desde hace años, en su caso, desarrollando herramientas de simulación para procesadores de IA.
Este surfista aficionado nacido en Totana en 1995, que ahora ejerce de ingeniero de sistemas en Intel aplicando los frutos de su labor investigadora, ha sido galardonado esta misma semana con uno de los Premios a los Investigadores Jóvenes en la VII edición de los Premios de Investigación, concedidos por la Sociedad Científica Informática de España (SCIE) y la Fundación BBVA.
"Es un orgullo que me hayan dado este premio, porque me lo tomo como un reconocimiento a todos estos años de esfuerzo. Una de las cosas que no me gustaban de la investigación era la incertidumbre: pensaba constantemente en si lo que hacía iba a tener un impacto, si iba a servir de algo. Este tipo de premios te dicen algo así como: 'bueno, lo has hecho bien'", explica a medio camino entre la humildad y la emoción.
En un momento en el que la propia Intel ve desafiada su supremacía en el mercado con rivales como Qualcomm, Apple o Nvidia, Muñoz confía en que esa competencia sirva para acercarnos a un futuro mejor: "al fin y al cabo, esa carrera supone un gran empuje para el progreso y a quien beneficia en último término es al usuario medio".
¿Por qué son tan importantes los procesadores en nuestra vida cotidiana?
Porque se utilizan en los aparatos que todo el mundo conoce, como los PCs, los portátiles o los móviles, pero también han llegado a otros ámbitos, como el sistema de procesamiento de los coches. Hoy en día, cualquier aparato electrónico que podamos imaginar lleva un procesador. Se utilizan hasta en el campo, donde distintos sensores se encargan de recabar información para automatizar tareas, pero también en los laboratorios, para investigar en ciencia… La cuestión es que cada vez se necesita más potencia de procesamiento, y en eso estamos trabajando ahora, en ampliar y mejorar esa potencia y hacerlo en menos tiempo.
¿En qué se diferencia un procesador normal de uno diseñado para aplicaciones de inteligencia artificial?
Los procesadores de los portátiles o los ordenadores de sobremesa están diseñados para hacer cualquier cosa: navegar por Internet, usar una aplicación de cálculo, escribir un documento... incluso ejecutar un programa de inteligencia artificial. Para ello, estos procesadores implementan muchas operaciones distintas y por eso se llaman 'de propósito general'.
En cambio, la inteligencia artificial son algoritmos matemáticos que utilizan sobre todo operaciones de multiplicación y suma. Para gestionar algo así, no necesitas muchas de las operaciones que realiza un procesador normal, porque no lo vas a usar para abrir un documento de Word, por ejemplo. Por eso, quitamos del chip todo lo que es innecesario y, en ese mismo espacio, ponemos muchas más unidades de procesamiento de multiplicación y suma, para poder hacer más operaciones en paralelo al mismo tiempo. Así, los datos de IA pueden fluir y ejecutarse sin problema, enviando los resultados al punto exacto para que el proceso sea más rápido y eficiente.
¿Ese es uno de los principales desafíos que plantea esta revolución de la IA, el consumo energético? ¿Se puede reducir ese gasto con nuevos diseños de procesadores?
Sí, de hecho, ya se está haciendo. El caso de Google es paradigmático. Hasta hace poco utilizaban GPUs, que son unidades gráficas, para ejecutar inteligencia artificial. El problema es que esos procesadores consumen mucha energía, porque están diseñados para hacer otras cosas. Al ver que sus centros de datos estaban perdiendo millones de dólares por culpa de todo ese consumo innecesario, diseñaron un nuevo procesador, llamado TPU. Se está utilizando muchísimo ahora y está diseñado precisamente para gestionar estas aplicaciones de IA. Así, Google ha conseguido reducir drásticamente el consumo de energía de sus centros de datos y aumentar el rendimiento.
En el último año se ha desatado una auténtica revolución con la inteligencia artificial generativa y ahora hay novedades casi cada semana. Pero eso es sólo lo más accesible, ¿cuál es su verdadero potencial en los próximos años?
En primer lugar, aplicaciones como ChatGPT o similares se pueden refinar todavía mucho más, están lejos de su mejor versión. Y en segundo lugar, esta tecnología va mucho más allá de lo que podemos usar en nuestro día a día. Por ejemplo, se utiliza para buscar el tratamiento de enfermedades o para descubrir nuevos fármacos.
Tiene un enorme potencial, sobre todo en campos como la medicina, la biología o incluso la física. Son sectores en los que la IA puede descubrir patrones que los humanos no somos capaces de ver tan fácilmente, por la cantidad de datos que implican. La mejora de este tipo de algoritmos puede tener un enorme impacto en muchos ámbitos de la sociedad.
La mejora de este tipo de algoritmos de IA puede tener un enorme impacto en muchos ámbitos de la sociedad.
La otra cara de la moneda es la alarma que está generando esta tecnología por la posible destrucción de puestos de trabajo o incluso por las consecuencias catastróficas de una IA general, como advierten algunos de sus 'padrinos'…
En mi opinión estamos muy lejos de eso y, al menos con la tecnología actual, no parece que podamos llegar a un tipo de inteligencia artificial destructiva, como se dice. Eso no quita que, obviamente, este tipo de aplicaciones de la IA tengan ciertas implicaciones legales y morales. Por ejemplo, con el tema de los deepfakes, la generación de imágenes, voces y vídeos falsos con IA.
Es una nueva era. El mundo está cambiando, al igual que hizo con la revolución industrial. Eso implicará muchas transformaciones, habrá que adaptarse, y también sufriremos pérdidas de empleo con la automatización. Pero confío en que no sea perjudicial a largo plazo. Creo que será algo muy progresivo, que no afecte tanto en el día a día, sobre todo al principio. Probablemente no nos demos cuenta de lo que está ocurriendo hasta que realmente llegue el momento.
Pese esta vertiginosa revolución de la computación, ¿sigue vigente la ley de Moore, que sostiene desde 1965 que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador?
Efectivamente, la ley de Moore todavía sigue en pie. No hay más que ver a Intel y otras empresas del sector, que no paran de nombrarla. De hecho, la siguen utilizando como base para afirmar que la siguiente plataforma que va a salir va a tener un X de mejora gracias a la reducción del tamaño del transistor.
Pero también es cierto que, por mucho que intentemos agotar esos límites de la física, va a llegar a un punto en el que va a ser imposible reducir más el tamaño del transistor, y ya nos estamos acercando. Precisamente, este auge de chips para inteligencias artificiales es debido a que la Ley de Moore está llegando a su fin. Necesitamos cada vez más potencia de cálculo y para eso hay que crear otro modelo, otra forma de diseñar estos sistemas que no se base en la ley de Moore. Hay que transformar el paradigma completamente, y esa es una de las cosas que buscamos con los chips de inteligencia artificial, sobre todo los últimos diseños: cambiar completamente el modo en el que se diseñan los procesadores.
Va a llegar a un punto en el que va a ser imposible reducir más el tamaño del transistor, y ya nos estamos acercando.
¿Se refiere a nuevas arquitecturas, nuevos materiales…?
Eso es. Si hay algún descubrimiento disruptivo en cuanto a nuevos materiales, eso puede cambiarlo todo. Actualmente, con el silicio y basándonos únicamente en el tamaño del transistor, el límite está muy cerca. La única forma de superarlo ahora mismo es rediseñar por completo la arquitectura del procesador.
¿Ha pensado en compatibilizar su carrera investigadora con el trabajo como ingeniero en Intel?
Estudié la carrera, el máster y el doctorado en la Universidad de Murcia y luego me llegó la oportunidad de trabajar en Intel. Ahora estoy trabajando en remoto desde España. Tengo bastante presión en el trabajo, pero cuando todo se estabilice me gustaría volver a implicarme en proyectos de investigación.
El motivo por el que me fui fue principalmente la precariedad y la incertidumbre que hay en la universidad. Era muy complicado conseguir un puesto en España y la empresa ofrece muchas oportunidades. También hay otra razón y es que, al trabajar directamente en productos que van a salir pronto al mercado, tienes la oportunidad de generar un impacto muy grande y bastante inmediato. A mí me gustaría compatibilizarlo en un futuro y, en cualquier caso, no descarto volver a la universidad si hubiese alguna oferta interesante.
También estuvo durante un año en una universidad estadounidense, Georgia Tech. ¿Se nota mucho la diferencia con la universidad española?
Lo que más me llamó la atención al estudiar allí fue el estrecho vínculo que tienen con la empresa privada. Al tener un contacto tan cercano con la industria, hay mucha transferencia de conocimiento. En cambio, en España ambos mundos están muy desvinculados y hacer una investigación, por desgracia, muchas veces se queda en el paper.
También te puede interesar:
- Intel presenta el primer procesador de 24 núcleos para portátiles: así es su 13ª generación
- El alto precio de la inteligencia artificial: gasta tanta energía como 100 hogares en un año
- Las 5 claves para entender qué es la computación cuántica y por qué será revolucionaria
- Avelino Corma, el inventor español que permitirá alargar la vida de los motores de combustión