Les pido perdón de antemano por lo que van a leer a continuación: un análisis profuso pero repleto de incertidumbres, lagunas y saltos al vacío. Dudo que alguien pueda hacer sino este tipo de reflexiones en este momento, apenas unos días después de que DeepSeek, una pequeña startup china, hiciera volar por los aires todas las ideas asentadas sobre el desarrollo de la inteligencia artificial generativa con un modelo mucho más eficiente y que apenas ha costado dinero entrenar. Quien asegure que sabe lo que va a suceder a continuación es, bien un osado charlatán, bien parte interesada en lo que pueda acontecer.

En 2022, la irrupción en escena de ChatGPT y su rápida adopción entre el gran público provocaron un tsunami parecido. Aunque, en aquella ocasión, su efecto fue el de dinamizar una industria -la tecnológica- que todavía se estaba consolidando tras su alocada expansión en la pandemia. Ahora está sucediendo todo lo contrario: Nvidia -como gran productora de GPU con las que entrenar y ejecutar estos LLM- ha sufrido la mayor pérdida de valor en bolsa de la historia. Y con ella han caído muchas de las firmas y enseñas que parecían todopoderosas hace apenas unas semanas.

Nada nuevo que narrarles al respecto que no hayan leído, escuchado y comentado hasta el momento. El problema radica a la hora de anticipar qué es lo que va a pasar, cuáles son las consecuencias de la llegada de DeepSeek al tablero de juego y cómo va a afectar a todos los agentes implicados en esta particular cadena de valor. 

Muchos han sido los discursos y publicaciones en redes sociales sobre este asunto. La mayoría de ellos, aventurando un cambio de ciclo radical, el fin del dominio de OpenAI y la caída en desgracia de los grandes actores de la inteligencia artificial hasta el momento (Microsoft, Google, Meta...). Hay quienes -como Marc Andreessen, cofundador de Netscape- han visto en este hito un 'momento Sputnik' de la tecnología; otros lo comparan con el pinchazo de las 'puntocom' en los 2000. Sin embargo, la realidad dista mucho de blancos y negros: los grises suelen ser menos llamativos, pero a la sazón más acertados.

Llevo los últimos días tratando de formarme una opinión clara sobre DeepSeek y sus implicaciones a gran y pequeña escala, de su alcance y la línea que debemos (o podemos seguir). Y he de decir que, tras muchas consultas con expertos y no menos debates con la almohada cada noche, sigo igual de perdido que cuando usé esta tecnología por primera vez. Hecha esta pertinente aclaración, permítanme trasladarles cinco reflexiones a vuelapluma y otras tantas preguntas que siguen en el tintero.

Primera reflexión: la burbuja tenía que pincharse

Empecemos por lo más obvio e inmediato: el impacto económico que ha supuesto la aparición en escena de DeepSeek. El pasado lunes, Nvidia sufrió la mayor caída de la historia del mercado bursátil, con pérdidas de más de 600.000 millones de dólares en un solo día, el 16,9% de su valor. Irónicamente, la anterior marca en esta triste clasificación también la ostentaba el popular fabricante de chips, cuando en 2024 se dejó 278.000 millones en una única jornada. Tal ha sido el golpe que Nvidia ha pasado de ser la empresa más valiosa del planeta a ser la tercera, siendo superada por Apple y Microsoft.

No ha estado sola en este descenso a los infiernos: el Nasdaq registró caídas del 3,07%, al igual que otras tecnológicas como Arm (-9%), Micron (-9%), AMD (-5%) o Microsoft (-3,5%). Incluso en el Viejo Continente hemos visto como gigantes de la talla de Siemens se dejaban un 20%, ante el temor de que se paralicen los despliegues de centros de datos que necesitan de sus tecnologías industriales y de energía. 

Ahora bien, quienes achacan a DeepSeek el pinchazo de la burbuja de la inteligencia artificial (asumiendo que realmente se haya producido semejante cosa) obvian la mayor: todos éramos conscientes de vivir en una burbuja que debía ajustarse tarde o temprano. El pasado septiembre, el que suscribe estas líneas ya alertaba de que la inteligencia artificial generativa estaba perdiendo tirón y que eso era una buena noticia: la señal de que comenzaban a racionalizarse las inversiones, de que las expectativas empezaban a alinearse con la realidad. No es nada excepcional, puesto que todas las tecnologías disruptivas pasan por un período de expectativas sobredimensionadas antes de encarar lo que Gartner denomina como 'el valle de la decepción o la desilusión', previo a su final consolidación.

La tradicional gráfica sobre el ciclo del 'hype' en tecnologías emergentes que Gartner publica cada verano.

Hace unos días analicé también otros datos reveladores sobre este asunto. Desde 2020, OpenAI o Anthropic han recibido 37.500 millones de dólares de Microsoft, Google o Amazon. Mientras tanto, los modelos abiertos de Mistral AI, Hugging Face o X AI han recibido 14.900 millones. Pero todo ese dinero está cayendo, por el momento, en saco roto.

Por ejemplo, OpenAI ronda los 3.700 millones de dólares en ingresos anuales, con un salto de gigante a 11.600 millones previsto para 2025. Sin embargo, este crecimiento tiene un alto coste: OpenAI estima que cerrará el año con pérdidas cercanas a los 5.000 millones de dólares, reflejo del elevado gasto asociado al desarrollo y mantenimiento de modelos avanzados.

En otras palabras, el mercado estaba claramente sobredimensionado.

Se puede argumentar, en contra, que los colosos del sector mantuvieron al alza sus inversiones, incluso a sabiendas de tener la espada de Damocles sobre sus cabezas. Que el anuncio de Stargate y sus 500.000 millones de dólares en infraestructuras prometidos hace apenas unos días en Estados Unidos es la mejor señal de ello. Y es cierto, pero no contradice la premisa anterior: esos actores necesitan de seguir alimentando este fenómeno, pero sus despliegues seguirán siendo necesarios en una forma u otra en los próximos años. Nadie, y mucho menos gente del nivel de Sam Altman, Larry Ellison o Satya Nadella, es tan iluso como para no contemplar el fin de un ciclo expansionista y el inicio de la consolidación real de una tecnología. De hecho, y como he dicho y veremos posteriormente, es incluso algo positivo para ellos.

Segunda reflexión: entramos en la nueva 'Guerra Fría'

Muchas de las lecturas que he escuchado y leído de 'opinadores' (suelen surgir expertos en la materia como setas cuando hay un fenómeno de esta magnitud) en los últimos días hablaban del "despertar de China" en la inteligencia artificial, de cómo una pequeña startup había conseguido burlar las prohibiciones de Estados Unidos a la importación de GPU para crear un modelo igual de avanzado que GPT-4 y mucho más eficiente. De cómo, con este movimiento, el Gigante Asiático irrumpía en un tablero de juego monopolizado hasta el momento por Estados Unidos y sus puntas de lanza tecnológicas.

Para cualquiera que lleve siguiendo la economía digital al menos unos años, esas reflexiones resultan absurdamente simplistas, erróneas y, nuevamente, ilusas. China siempre ha sido un contendiente clave en esta tecnología y lleva mucho tiempo trabajando en modelos de lenguaje largo (LLM) como los que nos ocupan en esta ocasión. No sólo DeepSeek fue fundada en 2023, sino que sus colosos como Baidu (con Ernie Bot), Alibaba (Qwen 2), Tencent (Hunyuan), SenseTime (SenseNova) o iFlytek (iFlytek Spark Big Model V4.0) cuentan con modelos similares desde hace años.

China, como prioridad nacional, mantiene desde hace tiempo un plan para convertirse en un líder mundial en inteligencia artificial, generando una industria de 150.000 millones de dólares en 2030. Incluso a nivel regulatorio, donde Europa puede presumir de tener la medalla de ser la primera región en contar con una ley específica de inteligencia artificial, encontramos que China ha sido (y es) extraordinariamente activa, como ya analizamos también en esta página.

La novedad en esta ocasión radica, en mi humilde opinión, no sólo en lo avanzado y preciso del modelo desarrollado por DeepSeek, sino en que haya conseguido vencer cualquier reticencia política o cultural y ser adoptada masivamente por los ciudadanos occidentales. Esto sí es un cambio de paradigma radical, que puede abrir las puertas a una competición cara a cara entre las firmas digitales estadounidenses y las chinas por el dominio de este mercado a escala global. E iniciar, de este modo, una 'Guerra Fría', con la IA como excusa perfecta, que hasta ahora tan sólo se ha estado caldeando...

Y tampoco es que hayan sido pocas las voces que han ido avisando de que algo así podría suceder. En palabras de Kai-Fu Lee, exejecutivo de Google, Apple y Microsoft, ahora encomendado al mundo de las conferencias y charlas motivacionales: "En mi libro 'AI Superpowers' predije que Estados Unidos lideraría los avances, pero que China sería mejor y más rápida en ingeniería. Con los recientes lanzamientos de DeepSeek, me siento reivindicado".

Tercera reflexión: no existe el 'bueno, bonito, barato'

Si el entrenamiento de GPT-4 costó más de 100 millones de dólares, el modelo R1 de esta inteligencia artificial costó menos de 6 millones. Y no necesitaron de grandes alardes en hardware para lograrlo, utilizando apenas unas 2048 obsoletas tarjetas H800 de NVIDIA adquiridas antes de la prohibición estadounidense a su exportación a China (aunque parece cada vez más evidente que han podido usar hasta 50.000 GPU H100 compradas a través de intermediarios). En cualquier caso, y por comparar, Meta cuenta ya con más de 350.000 GPU NVIDIA H100 para entrenar su modelo LlaMa y este año quieren conseguir más de un millón para entrenar sus IA, mientras que Google y OpenAI también tienen cientos de miles de estos chips de vanguardia en operación.

Y ya no sólo hablamos del coste de entrenamiento, sino que resulta que su ejecución también es sobresaliente en términos de eficiencia. Así, el coste de inferencia de R1 es un 93% inferior al de o1 (el modelo de razonamiento de OpenAI), con lo que podría incluso ejecutarse en local en muchos dispositivos que hasta ahora serían impensables para este tipo de LLM. 

Quizás en este punto parto de un sesgo cognitivo o de escuchar demasiado a los abuelos, pero cuando algo suena demasiado bueno, suele haber gato encerrado. Y si suena a 'bueno, bonito y barato', la desconfianza se vuelve inmensa. En este caso, ¿cómo es posible que haya una diferencia de magnitud tan grande entre los esfuerzos occidentales y lo que ha conseguido, cual película épica, una pequeña startup china? ¿En qué momento se ha producido este salto exponencial, que no incremental, en la eficiencia de entrenar estos modelos?

Hay un detalle especialmente desconcertante al respecto: DeepSeek ha hecho público no sólo su modelo (es de código abierto) sino también extensa documentación técnica que explica todo el desarrollo y operativa de su tecnología. Es algo inusual cuanto menos en una compañía tecnológica en general, pero más si cabe procediendo de China. ¿Es que realmente es todo tan bonito como dicen que se atreven a mostrar las tripas de su sistema sin miedo a que se descubra ninguna trampa? 

Tendremos que esperar para tener una respuesta concluyente sobre esto, pero parece que algo sospechoso sí que hay: tanto Microsoft como OpenAI han iniciado sendas investigaciones ante las sospechas de que DeepSeek haya usado datos y tecnologías de ChatGPT sin autorización. David Sacks, mano derecha de Trump en estos menesteres, ha llegado a decir que tienen pruebas concluyentes de que la startup asiática ha copiado ilegalmente a OpenAI en el entrenamiento de la perfecta e inmaculada DeepSeek...

Cuarta reflexión: la paradoja de Jevons

De todas las lecturas que se han sucedido estos días, hay una que acepto y defiendo sin remilgos. Frente a los catastrofistas que creen que la llegada de DeepSeek supondrá el fin de NVIDIA o que se va a acabar con la 'gallina de los huevos de oro', la realidad económica dicta justo todo lo contrario. Y es que, incluso aceptando la premisa absoluta de que el modelo chino es excelente y se va a imponer en el mercado, eso haría que el mercado de la IA despegara de manera definitiva.

Es la conocida como paradoja de Jevons. Lo que reza esta teoría es que una disminución de los precios (como la que provocaría un modelo tan eficiente como DeepSeek, que necesita menos GPU que sus rivales) promueve la demanda, no la reduce. Pongamos el ejemplo de la electricidad: cuantas más eficientes se han vuelto nuestros dispositivos eléctricos, el consumo no ha caído, sino que se ha democratizado el acceso a los mismos y ello ha aumentado su uso. Lo mismo podría ocurrir, en el escenario planteado, con la IA generativa.

Podríamos encontrarnos, de la noche a la mañana, con que las extraordinarias barreras de entrada actuales a implantar un LLM local en las empresas desaparecerían. Cualquier organización podría adoptar, de manera económica, la inteligencia artificial en su seno. Y todas necesitarían comprar GPU de NVIDIA, aunque fueran en menor cantidad por pedido y de manera más distribuida. Asimismo, los proveedores de nube y de software podrían ofrecer servicios de IA mucho más asequibles, acercando a cualquier persona u empresa esta tecnología. 

Quinta reflexión: abracemos el caos

Esta es la reflexión más íntima de todas, aunque creo que compartida por buena parte de todos los que hayáis llegado hasta estas líneas (lamento nuevamente lo extenso de este análisis). Todos sabíamos que la burbuja de la IA tenía que corregirse para poder seguir creciendo de forma sana. Todos sabíamos que China estaba jugando sus cartas y que, en algún momento, sacaría sus garras. Y por todos era sabido que el actual planteamiento era insostenible durante mucho más tiempo. Empero, ninguno (me incluyo) queríamos ver las señales de que algo así iba a suceder de forma inmediata.

La sucesión tan rápida de los acontecimientos nos pilla siempre con la guardia bajada, con la impresión de que vivimos en un constante caos del que es difícil extraer conclusiones antes de que queden invalidadas por el siguiente fenómeno disruptor. Si la inteligencia artificial fue acuñada en 1956, tuvieron que pasar más de cinco décadas para comenzar a ver sus frutos. En cambio, desde 2022, no paran de sucederse acontecimientos que parecen que van a cambiar no sólo las reglas de juego de esta industria, sino la economía y la configuración social en su conjunto.

¿Cómo podemos sobrevivir a este aluvión de cambios constantes, de incertidumbres que afectan a estrategias, inversiones y a aspectos geopolíticos tan sensibles? ¿Cómo hacerlo sin perder la cabeza? ¿Podremos alcanzar algún día esa ansiada fase de consolidación o seguiremos sumidos en un sinfín de vueltas de tuerca sin control? A día de hoy, me es difícil dar una respuesta.

Igual que me es complicado aventurar una contestación clara a algunas cuestiones que lectores y compañeros me han formulado en los últimos días. Hay demasiados interrogantes sobre la mesa, pero me permito una vez más la licencia de centrarme en cinco de ellos:

Primera pregunta: ¿cómo hemos llegado aquí?

Esta pregunta se la debemos formular a DeepSeek, cuando conozcamos el detalle de cómo se gestó su modelo, si hubo o no plagio a OpenAI y si realmente es tan eficiente como afirma ser. Debemos saber qué actores -públicos y privados- han estado involucrados en su desarrollo y cuáles han sido las líneas rojas que se han plasmado en sus modelos, más allá de la censura política tan obvia y viral que estamos viendo. 

Segunda pregunta: ¿es escalable su tecnología?

Ya en septiembre del pasado año alertaba de que los actuales LLM, como ChatGPT o Gemini, no eran escalables por sus implicaciones energéticas y de pura evolución técnica. Muchas voces autorizadas hablaban ya de cambiar de aproximación hacia modelos más pequeños, los Small Language Models (SLM) y hacerlos funcionar como enjambres para obtener los mismos resultados, a menor coste.

Ahora la duda se extiende a la propia escalabilidad del modelo de DeepSeek. Me apropio para ello de la reflexión de Yann LeCun, el máximo responsable de IA de Meta y con quien habló hace poco mi compañero Julio Miravalls. En su opinión, hay un gran malentendido sobre las inversiones en infraestructura de IA: "Gran parte de esos miles de millones van a infraestructura para inferencia, no para entrenar. Correr servicios de asistente de IA para miles de millones de personas requiere mucha computación. Una vez que pones comprensión de vídeo, razonamiento, memoria a gran escala y otras capacidades en los sistemas de IA, los costes de inferencia van a aumentar".

No opina lo mismo Dario Amodei, CEO de Anthropic: "DeepSeek ha producido un modelo cercano al rendimiento de los modelos estadounidenses de 7 a 10 meses de antigüedad, por un coste bastante menor (pero ni cerca de los ratios que la gente ha sugerido). Es un punto esperado en una curva de reducción de costes en curso. Lo que es diferente esta vez es que la empresa que fue la primera en demostrar las reducciones de costos esperadas fue china". Por comparar, entrenar su modelo, Claude 3.5 Sonnet, costó alrededor de 10 millones de dólares y entre 9 y 12 meses de trabajo.

Tercera pregunta: ¿quién gana y quién pierde?

Es la pregunta del millón, a quién beneficia la llegada de DeepSeek y quiénes saldrán perjudicados de ella. Una vez sentado que NVIDIA se recuperará presumiblemente fácil del bache, hay muchas más dudas sobre la capacidad de reacción de OpenAI (ya hemos visto que esta incertidumbre sobre su viabilidad venía de antes) y cómo actores en segunda fila, como Google o Meta podrían adoptar el modelo de código abierto chino para integrarlo con sus actuales despliegues y ofrecer soluciones verdaderamente rompedoras.

Y lo que es más: los proveedores de soluciones empresariales están frotándose las manos. Firmas como Salesforce (cuyo CRM ya integra inteligencia artificial generativa y está impulsando el fenómeno de los agentes autónomos) o SAP (la europea que comanda el mercado del ERP) podrían incorporar este modelo abierto en su seno, a un coste asumible para extenderlo a toda su base de clientes a una velocidad inusitada.

"El verdadero tesoro de la IA no está en la interfaz o el modelo, que se convertirán en 'commodities'. El valor real está en los datos, el oxígeno que impulsa el potencial de la inteligencia artificial", reflexionaba Marc Benioff, que no ha ocultado su felicidad por esta sucesión de los acontecimientos. 

Habrán notado, por último, que no he hecho mención alguna a Europa, más allá del aspecto regulatorio. Hasta ahora, hemos jugado un papel de meros espectadores en el devenir de la inteligencia artificial. ¿Podremos aprovechar un modelo de código abierto como DeepSeek, si se cumplen sus promesas, para crear campeones nacionales en el Viejo Continente? Se abre la veda a posibles soluciones de IA verticalizadas, especializadas o aprovechando algunas de las fortalezas industriales que sigue ostentando esta región.

Cuarta pregunta: ¿aceptamos un modelo chino como estándar?

Ya hemos visto que DeepSeek no contesta a preguntas básicas relacionadas con la política o los hechos históricos más controvertidos de la dictadura china. Más allá de eso, ¿qué otras influencias hay del gobierno comunista en este modelo? ¿Aceptaremos como usuarios una inteligencia artificial claramente manipulada con intenciones políticas y en base a unos valores éticos que distan mucho de los occidentales? 

Las incertidumbres sobre cómo se usan y almacenan los datos personales en DeepSeek también son objeto de interés. Este miércoles, las agencias de protección de datos de varios países europeos comenzaron a plantearse este asunto y a prohibir, por el momento, el uso de esta tecnología. 

No sólo eso, pensemos más allá: ¿qué pasa cuando se expandan los agentes autónomos, capaces de tomar decisiones por sí solos? ¿Confiaremos en una decisión tomada por un modelo de esta guisa?

Quinta pregunta: ¿qué pasará con las inversiones prometidas?

No es casual que DeepSeek arrase con todo apenas unos días después de que Estados Unidos anunciase su proyecto Stargate. Una iniciativa de 500.000 millones de dólares con la que asegurar la supremacía estadounidense en la arena de la IA, que ha estado envuelta en dudas sobre su financiación desde su mismo nacimiento.  Ahora queda en el aire, más si cabe, su implementación real, así como gran parte de los despliegues anunciados por los grandes hiperescalares y que se basaban en la premisa de una continua y creciente demanda de estas infraestructuras.

De nuevo, todo dependerá de si lo que China ha mostrado al mundo es tan bueno, bonito y barato como parece...