La industria de la inteligencia artificial será grande, pero sólo unas pocas empresas proporcionarán modelos como ChatGPT, Claude y la familia Gemini de Google. Sin embargo, muchas empresas proporcionarán herramientas para aplicar estos modelos a tareas específicas, con clientes que incluirán empresas, organismos públicos y consumidores en general. ¿Estoy loco? Puede. Es un juicio muy prematuro y puede resultar erróneo, pero se basa en una teoría económica y una experiencia sólida. Lo que podría cambiar son los costes y las oportunidades de los servicios prestados.
Venga, os cuento más.
Si os fijáis, algunos sectores tienen pocas empresas y otras muchas. Pensad en fabricantes de grandes aviones comerciales y seguramente sólo os vendrán a la mente dos empresas. ¿Y bares o restaurantes? En cualquier pequeña ciudad hay un montón de ellos. Para entender la estructura del mercado de inteligencia artificial, debemos averiguar por qué algunos sectores tienen muchas empresas y otras pocas.
Las economías de escala determinan gran parte de la estructura del mercado. El año pasado, Airbus y Boeing construyeron entre los dos 1.263 aviones, unos 600 cada uno. Supongamos que esa producción se hubiera repartido entre 100 fabricantes en lugar de dos. Serían 12 aviones cada uno. El coste medio de producción habría sido mucho mayor. Los costes de los materiales habrían sido similares, pero los costes de diseño se habrían repartido entre muchos menos aviones. Las fijaciones y plantillas especializadas utilizadas en el proceso de producción serían menos comunes, lo que supondría más trabajo manual y, por tanto, más repeticiones.
Ahora pensad en restaurantes que atienden quizás a 100 comensales a la vez. ¿Cuánto más barato sería que 1.000 clientes se sentaran en un gran restaurante? La preparación de la comida probablemente estaría más automatizada, pero los camareros y ayudantes de camarero se cruzarían más a menudo. Mantener la calidad tanto de la comida como de la experiencia podría ser más costoso.
La diversidad de la demanda también impulsa la estructura del mercado. Los restaurantes tienen muchas especialidades: mexicana, italiana, tailandesa, gallega (como no), etc. Pero los viajeros de avión no parecen interesados en demasiadas variaciones en el diseño de un avión.
El desarrollo de los grandes modelos lingüísticos de ChatGPT y sus homólogos es muy costoso. GPT-3 costó tres millones de dólares, pero GPT-4 costó más de 100 millones. Los modelos han mejorado mucho a medida que se han entrenado con conjuntos de datos más grandes, que requieren muchos más recursos de procesamiento. Una vez desarrollado el modelo, el gasto de ejecutarlo para responder a las consultas crece con el tamaño del modelo.
La gran propuesta de valor de la inteligencia artificial procede del aprovechamiento del gran modelo lingüístico para aplicaciones específicas. Los grandes modelos lingüísticos son de propósito general, lo que permite su comunicación en el lenguaje cotidiano. Una empresa quiere responder a las consultas de sus clientes sobre el pago de facturas; un ingeniero quiere buscar alternativas de diseño que se ajusten a determinados parámetros; un comercial quiere identificar a los clientes pasados que probablemente vuelvan a comprar. Todos ellos pueden utilizar el mismo modelo de IA de propósito general y, a continuación, "atornillar" funciones, fuentes de datos y prácticas adicionales.
Los grandes modelos lingüísticos pueden adaptarse a aplicaciones específicas. En el ejemplo más conocido, GPT se adaptó para que sonara como un útil asistente llamado ChatGPT. En algunos casos, el gran modelo lingüístico será simplemente un mecanismo de entrada-salida que traduce el inglés común, u otro idioma, en instrucciones que pueden introducirse en un pequeño modelo especializado de inteligencia artificial. A continuación, los resultados de ese modelo pueden devolverse al modelo lingüístico grande para que el usuario reciba los resultados en lenguaje cotidiano. En otros casos, el modelo lingüístico grande tendrá una conexión con información externa, como un historial de pagos de facturas o el manual de servicio de un producto.
Cada una de estas aplicaciones especializadas se beneficiará del desarrollo por parte de personas con un profundo conocimiento del campo. Un mecánico sabe mejor que nadie qué información será útil para otro mecánico. Habrá muchas, muchas de estas aplicaciones especializadas. Pueden desarrollarse e implantarse a un coste relativamente bajo. Mientras que el gran modelo lingüístico se parecerá al oligopolio Airbus-Boeing, el sector de las aplicaciones se parecerá al sushi, las hamburguesas, la pizza…
Dentro de una aplicación, como ayudar a los clientes a devolver algo que han comprado online, puede haber sólo dos o tres empresas que presten el servicio, pero el número de servicios especializados será enorme. Algunas empresas adquirirán experiencia en el desarrollo de aplicaciones especializadas y tendrán muchos productos diferentes desarrollados con esa experiencia, pero siempre habrá emprendedores en busca de oportunidades que otros han dejado pasar, así que los pequeños desarrolladores de aplicaciones persistirán.
Pero, ojo, esta visión de la futura estructura del mercado de la inteligencia artificial podría fallar de varias maneras, algunas de las cuales pueden reconocerse fácilmente hoy en día. Por ejemplo, los grandes modelos lingüísticos podrían desarrollar una mayor capacidad para manejar tareas especializadas. Hace tres o cuatro años, antes de la explosión de la IA generativa, pregunté a un referente en IA sobre el desarrollo de una aplicación altamente especializada para el sector asegurador. Me dijo que se podría dedicar un año a ello, pero entonces la aplicación se basaría en un modelo "anticuado un año". Probablemente se obtendrían mejores resultados utilizando un modelo de IA actualizado pero no especializado.
Otra alternativa a esta previsión de la estructura del mercado procede del descenso del coste del desarrollo de modelos de IA. Una estimación sitúa los costes de formación en un 80% menos en un periodo de dos años y medio, lo que equivale a un descenso anual de aproximadamente el 50%. Otras estimaciones oscilan entre un 20% y un 70% menos cada año. Muchos artículos señalan el elevado precio de los chips Nvidia utilizados en IA. Unos precios que son altos porque los chips son muy potentes, lo que ayuda a reducir los costes generales de formación de los modelos. Así que quizá los grandes modelos lingüísticos sean tan baratos que invite a que muchas empresas generen los suyos propios. Incluso si el coste se estabiliza en, digamos, 100 millones de dólares, estaríamos dentro del presupuesto razonable de muchas grandes empresas.
En tercer lugar, la regulación, ¡ay la regulación!, podría cambiar la estructura del mercado, como ha ocurrido en otros sectores. Los países podrían exigir o subvencionar modelos de IA fabricados localmente.
En cuarto lugar, puede que alguien desarrolle un método de desarrollo propio totalmente nuevo y revolucionario. Los resultados de las investigaciones recientes sobre inteligencia artificial se han compartido a menudo públicamente, o una empresa ha llegado a la misma solución que otra había desarrollado anteriormente. Pero siempre es posible que se desarrolle algo nuevo y genial… y se mantenga en secreto.
La concentración del mercado también puede verse afectada por otros factores que no parecen aplicarse a la IA tal y como la conocemos, pero eso podría cambiar. Estos otros factores incluyen los efectos de red y el acceso a los canales de distribución.
Dicho esto, las empresas del sector tecnológico deberían ser lo más agnósticas posible en cuanto a la futura estructura del mercado, pero si hay que apostar, ahí va la mía: lo más probable es que unas pocas grandes empresas desarrollen grandes modelos lingüísticos con muchas pequeñas empresas que proporcionen aplicaciones especializadas. ¿Cuál es la vuestra?