“Hola a todos y bienvenidos a este decimotercer re:Invent de AWS. Es mi primer evento como CEO, pero no mi primer re:Invent. He tenido el privilegio de estar en todos desde el año 2000”.
Con palabras sencillas, Matt Garman hace saber a cualquier despistado que no lo tuviera presente que, desde junio, hay un nuevo jefe en la oficina del gigante de la nube. Y lo hace ante una audiencia que cifra en 60.000 asistentes en persona al evento y 400.000 viéndolo online. Toda una estrella del rock.
Pero que Garman sea nuevo en la tarea no implica que sea un recién llegado. Él mismo tira de recuerdos, de los primerísimos comienzos de la compañía, hija de Amazon en 2006, actuando él como abogado, e incluso desde los preparativos para su lanzamiento en 2005: “Nuestros primeros clientes fueron startups. Y lo que me encanta de ellas es que están ansiosas de probar nuevas tecnologías”.
A propósito de ello, el primer anuncio del nuevo jefe en el re:Invent 2024, al que asistió DISRUPTORES-EL ESPAÑOL, llega inmediatamente: “En 2025 destinaremos mil millones de dólares a créditos para startups”.
“En 2005 fuimos a Nueva York a hablar con algunos bancos”, relata. “Y mostraron interés y curiosidad por nuestra visión de lo que ellos hacían. Nos dijeron que no parecía que nuestras formas de trabajar fueran a funcionarles. Se sentaron con nosotros y, con gran diligencia, nos dieron una lista completa de sus razones: cumplimiento, regulación, seguridad… Toda una serie de motivos por los que nuestra tecnología [la nube] no les serviría probablemente jamás”, rememora. “Así que nos dijimos: pues no ha merecido la pena venir”.
“Hoy en día trabajan con nosotros las mayores de empresas de cada sector industrial en el mundo, cada vertical, la ciencia, cada gobierno… En AWS tenemos millones de clientes en cada caso de uso nacional”, aclara Garman, que remata la anécdota de los bancos asegurando: “Puedo decir con orgullo que muchas de aquellas grandes empresas financieras ahora son nuestros clientes”.
Pero, en fin, una corporación global como Amazon Web Services no pone un CEO nuevo para contar viejas historias, sino las grandes novedades disponibles. Y las que están por venir. Lo que ocurre es que estamos en el gran momento de la inteligencia artificial, que todo lo ocupa sin que haya realmente grandes innovaciones, sino un flujo continuo e incremental de nuevas ideas y soluciones.
Andy Jassy en el escenario
Habrá que esperar a que se produzca el próximo salto cuántico de la inteligencia (quizás la IA que vale para todo, la que sea capaz de autoprogramar su aprendizaje continuo, la mismísima singularidad… No, esa no). Así pues, a Garman le tocó hacer su puesta de largo con una multitud de anuncios… de actualizaciones y mejoras sobre lo que ya está funcionando. Que tampoco está mal y sirvió para las ovaciones acompañadas de gritos y aullidos de felicidad habituales en este tipo de eventos.
Aunque sí hubo, al menos, un par de cosas muy novedosas.
La primera, una familia de estreno de modelos IA multimodal denominada Nova, que ofrece cuatro tallas: micro, lite, pro y premier. El anuncio fue hecho en persona por Andy Jassy, presidente y CEO de Amazon (la corporación ‘madre’ de AWS), como invitado de Garman, en una intervención en la que presumió de robotización (ya tiene 750.000 unidades trabajando) y elogió las posibilidades de la IA generativa, citando su tarea en atención al cliente: “Ahora es más fácil, a través del chat. La IA detecta cuando el interlocutor se frustra con sus respuestas y necesita hablar con un humano…”.
Respecto a las tallas de Nova, la más pequeña es muy rápida, básicamente para generar textos con la mínima latencia. Lite, incluye fotos y vídeos, manteniendo la rapidez. La versión Pro intenta balancear precisión, velocidad y coste, pensada para grandes flujos de trabajo. Y la talla más grande, Premier, disponible en las próximas semanas, es para tareas más complejas, como crear modelos personalizados, que será una herramienta escalable, buena para desarrolladores y pensada para grandes corporaciones.
Además, la nueva familia llama la atención a los creadores de contenidos con dos miembros específicos: Canvas, capaz de generar imágenes estáticas, a partir de texto en lenguaje natural, “con calidad de estudio”, precisa Jassy; y Reel, capaz de crear vídeo “con pleno control de la cámara, panning, zoom y 60 grados de rotación”.
El presidente de Amazon supone que los seis segundos de vídeo que puede producir Nova Reel funcionará muy bien para “marketing y publicidad”. No obstante, lo siguiente es que podrá producir “vídeos de dos minutos en los próximos meses”.
Y queda la segunda novedad, que es la que realmente ha sorprendido y llamado la atención a los medios estadounidenses, conocedores más cercanos de lo cotidiano en estas corporaciones: Apple respalda de manera nunca vista a AWS, con la aparición en vivo en el escenario de su director de machine learning, Benoit Dupin.
De hecho, Dupin fue el primer invitado en aparecer durante la keynote de Garman, en un gesto más que significativo al venir de una corporación tan autártica y ‘Juan Palomo’ como la de la manzana mordida.
Apple en el escenario
Dupin, que tiene un pasado como vicepresidente de Amazon para la búsqueda de tecnologías, se explayó sobre el uso intensivo que hace su compañía actual de servicios cloud de AWS destinados a Apple Music, Apple TV, News, App Store y Siri. Y para más cercanía con su anfitrión, reveló que “ha pasado los servicios para Apple Intelligence que se ejecutaban en procesadores x86 [el modelo RISC de Intel y AMD] a los Graviton”, el procesador IA de AWS diseñado específicamente para hacer inferencia.
Antes de la aparición estelar del enviado de Apple, Garman había hecho una incursión en las referencias al hardware propio de su compañía, asegurando que el procesador Graviton 3, anunciado hace un año, “produce un 47% de ahorro”, en comparación con el uso de arquitecturas x86, y “reduce las emisiones un 62%”.
A propósito de sus propios procesadores, el nuevo CEO confirma que la mayoría de la IA se ejecuta en chips de Nvidia. Y añade que la propia AWS, que también los utiliza, “es el mejor sitio para correr grandes paquetes de datos”.
Luego se centra en su procesador para entrenamiento de IA, el Trainium, anunciando la disponibilidad de la versión 2, que trae consigo la conectividad ultrarrapida Neuronlink que permite montar “clusters cada vez más grandes”. La escala empieza con los nuevos Ultraservers, con 64 procesadores Trainium 2 (Trn2) interconectados, que permite alcanzar 83,2 petaflops de cálculo, lo que multiplica por cuatro la capacidad de una sola instancia.
Garman anticipa que la versión 3 del Trainium, que espera que esté disponible a finales de 2025, con tecnología de tres nanometros, multiplicará (otra vez) por cuatro la potencia de los de los actuales Ultraserver con Trn2.
En la sucesión de anuncios durante las dos keynotes clave del evento, la de Garman y la del vicepresidente de IA y datos Swami Sivasubramanian, es fácil inferir un patrón: las principales herramientas que ya tiene AWS, reciben actualizaciones y se combinan con otras herramientas o servicios, para añadir agentes IA que ejecutan tareas específicas; reglas de configuración y seguridad que AWS denomina ‘guardrail’; automatizaciones; y sistemas RAG (Retrieval Argumented Generation), técnicas que permiten ‘salvar’ la incapacidad de actualización de los datos que maneja la IA más allá de su entrenamiento, mediante referencias externas.
Con ese esquema, los anuncios de servicios con nuevas versiones mejoradas alcanzan a las instancias S3, Aurora DSQL, Bedrock, la plataforma SageMaker (que permite a los usuarios construir, entrenar y desplegar modelos de machine learning y ahora también de IA generativa, simplificando el análisis al integrar con ‘Lakehouse’ los lagos de datos de S3 y los almacenes de datos de Redshift) y la propia IA generativa de AWS, llamada Q y presentada el pasado año.
Bedrock, piedra angular estratégica
Da la impresión de que la IA recorre un camino inverso al que en su día siguió el despliegue de la world wide web. Entonces se partió de un navegador (el pionero Navigator) que servía para todo, y luego se diversificó con la aparición de las apps específicas. Ahora, partiendo de aplicaciones específicas IA, para tareas con entrenamientos concretos, las inteligencias van conectando distintas funciones, en busca de un propósito más amplio y general.
Bedrock es la piedra angular en la estrategia de AWS, porque se convierte en el enlace que abre la puerta a que los usuarios puedan utilizar a su conveniencia los modelos IA que más destacan en el mercado y los que puedan estar por llegar. El VP Sivasubramanian cita las opciones de IA con capacidades de “razonamiento” desarrolladas por Anthropic, Meta (Llama3), Cohere, la española Mistral, la israelí AI21labas y Stability, además del propio modelo de Amazon, que conectan con la plataforma.
Bedrock suma la nueva capacidad RAG “model distillation”, para depurar grandes modelos de lenguaje y producir otros más pequeños. También incorpora “guardrails”, otro anuncio, para garantizar el correcto uso de lo que pueda ser material sensible de datos personales en las respuestas de la IA. Y dos anuncios más de Garman sobre añadidos a Bedrock: “Automatic reasoning checks, para sólo enviar respuestas al cliente cuando está seguro de que son consecuentes (sin “alucinaciones” producidas por el razonamiento automático); y multi-agent collaboration, para orquestar el trabajo de los agentes, sin un código complejo.
“Estamos sólo en los primeros momentos de la inteligencia artificial, viendo cosas...”, dice el CEO Garman, que pone mucho énfasis en que “el almacenamiento ha cambiado mucho”. Se refiere de sus clásicas instancias S3 en la nube, que ahora incorporan nuevas habilidades para búsquedas hasta tres veces más rápidas con la función ‘tables’. La función ‘metadata’ les da la capacidad de actualizar automáticamente los metadatos cuando cambian los objetos registrados, utilizando analítica, además de encriptarlos. “Hacemos más fácil encontrar los datos”, asegura.
Menciona a Aurora DSQL, otra mejora, aplicada a su sistema de administración de basos de datos relacionales, como “la más rápida base de datos distribuida, hasta cuatro veces más rápida en multi-región, en lectura y escritura, al incorporar Dynamo DB-tables”.
Y, por supuesto, AWS anuncia también varias upgrades funcionales para Q, su propio modelo de inteligencia artificial generativa, que tiene un año de existencia y, según Garman, es ya una gran ayuda para los desarrolladores de software, “que suelen dedicar sólo una hora al día a programar y el resto del tiempo a otras tareas burocráticas, documentación y esas cosas. Con Q mejora el desarrollo un 70%”.
Las novedades en Q son la incorporación de agentes, para la documentación y revisión de código; su integración con GitLab (disponible en preview), para la revisión y actualización automatizada de apps ‘legacy’ (la propia AWS lo ha utilizado internamente para actualizar el javascript más de 10.000 apps); y la funcionalidad developer (en preview), capaz de convertir código .NET a Windows o Linux, el código MVware en apps nativas y las apps de mainframe, para acelerar migraciones a la nube.
Y hay todavía unas cuantas más novedades de detalle. A falta del anuncio de alguna innovación rompedora, muchos de los expertos y responsables de IT asistentes se llevan de Las Vegas un buen montón de deberes para hacer en casa. Les va a hacer falta una app IA para ordenar y evaluar todo lo que pueden aplicar y cambiar en sus sistemas.