Proclamar la llegada de cambios bruscos en tecnologías que la gran mayoría de la sociedad aún no utiliza o utiliza sin tener ni la más maldita idea de cómo o de por qué funcionan puede parecer arriesgado a incluso elitista, pero cuando las cosas ocurren, ocurren, y alguien tiene que contarlas.
Y lo que está pasando en el panorama de la inteligencia artificial es lo suficientemente interesante como para que valga la pena contarlo. Si hacemos algo de retrospectiva y nos vamos hacia la segunda mitad de 2022, cuando OpenAI lanzó al mercado primero Dall·E, su “algoritmo pinturero”, y posteriormente, a finales del año, ChatGPT, podríamos plantearnos cómo aparecía el panorama en ese momento: un juego para compañías razonablemente grandes y capitalizadas, susceptibles de pagar grandes cantidades de dinero en concepto de capacidad de proceso, almacenamiento, etc. en la nube, y capaces de partir de cantidades de información enormes, inimaginables, para entrenar sus modelos.
OpenAI provocó la llegada inmediata de competencia: varias compañías que llevaban tiempo trabajando en proyectos similares pero que no los habían lanzado aún se lanzaron a intentar competir con la compañía que había capitalizado todo el impacto mediático de la llegada de la inteligencia artificial generativa. Viejos actores como Google, Meta o Microsoft, pero también otros nuevos como Anthropic, Perplexity y muchos otros presentaron sus modelos, y plantearon competencia a OpenAI.
En ese momento, toda esa competencia se movía al compás de las llamadas scaling laws, o leyes de escalado, que describen cómo cambia el rendimiento del modelo a medida que se amplían los factores clave. Esos factores suelen incluir la cantidad de parámetros, el tamaño del conjunto de datos de entrenamiento y el coste del entrenamiento.
Las leyes de escalado hicieron que todos los competidores se pusiesen a hacer básicamente lo mismo: hacer crecer sus modelos de manera brutal, con más y más datos y parámetros. Y la cosa funcionó… hasta que dejó de funcionar. De repente, nos enteramos de que el GPT5 de OpenAI ya era tan solo marginalmente superior a las últimas versiones de GPT4, a pesar de tener muchísimos más datos y parámetros, y que sus competidores estaban topándose también con problemas similares: las leyes de escalado parecían tener techo.
OpenAI provocó la llegada inmediata de competencia
Para algunas mentes apocalípticas, el debacle: hemos tocado techo, no se puede pasar de ahí, viviremos una crisis. Pero aunque viviremos una crisis, como ocurre con toda tecnología que genera expectativas en muchas ocasiones superiores a lo que muchos son capaces de entender, no será porque hayamos tocado techo. Lo que la crisis de los modelos ha hecho es que las compañías agucen el ingenio y empiecen a buscar nuevos caminos, algo que desde el punto de vista de la innovación siempre es positivo.
Ahora de lo que se habla ya no es tanto de modelos, sino de agentes. La aproximación de los chatbots como “ventanas” al modelo se plantea limitada, y de lo que hablamos es de agentes que pueden completar tareas complejas de forma autónoma. Con los agentes, los usuarios pueden delegar trabajo a la herramienta y luego verificar si necesita ayuda o si ha terminado, en lugar de solicitarle ayuda repetidamente.
Una aproximación mucho más distribuida, que permite levantar agentes para tareas determinadas, y dotarlos de contexto y de entrenamiento propio, permitiendo mediante los protocolos adecuados que extraigan datos de fuentes como herramientas comerciales y software para completar tareas, así como de repositorios de contenido y entornos de desarrollo de aplicaciones.
Lo que la crisis de los modelos ha hecho es que las compañías agucen el ingenio y empiecen a buscar nuevos caminos
Una aproximación de este tipo puede plantear funcionalidades mucho más versátiles que la monolítica idea del modelo, y sobre todo, con la posibilidad de ser mucho más adaptativos por basarse en piezas que pueden ser gestionadas de múltiples maneras. El esquema, además, democratiza la innovación porque la saca de la dinámica maximalista de “quién tiene más datos y más recursos en la nube”, y vuelve a poner en juego la pelota de “quién es más ingenioso o más ágil”.
Para las compañías que no se dedican a la inteligencia artificial, sino que simplemente pretenden usarla, también un reto: pasar de simplemente implementar un modelo y fiar todo el uso al mismo mediante los denominados RAGs, Retrieval Augmented Generation (que simplemente “envuelven” las peticiones a los modelos en una capa de información contextual de la compañía para generar resultados más relevantes), a diseñar esquemas de agentes infinitamente más versátiles, en donde la estrategia de despliegue puede resultar diferencial y existen innumerables oportunidades para el aporte de cosecha propia.
Para los demás, los que no han llegado hasta aquí y los que aún están intentando desentrañar lo que he escrito, lo importante es entender que la inteligencia artificial ya no se limita a un solo “truco”, a un chatbot que responde generalmente cosas inteligentes, y que vamos a ver una creciente sofisticación en las aplicaciones, desde cosas muy sencillas para automatizaciones del día a día, hasta esquemas evolutivos capaces de mejorar cuantos más datos procesan.
Si creíamos que esta tecnología había quemado etapas muy rápido y ahora venía la crisis existencial del “y ahora, ¿qué?”, pensémoslo dos veces. Lo que viene va a dejar a más gente pasmada que lo que hemos visto hasta ahora. De modelos a agentes, quédese con el tema. Lo vamos a ver en unos cuántos sitios…
***Enrique Dans es Profesor de Innovación en IE University.