Aunque el auge de la inteligencia artificial haya tenido como principales protagonistas a Microsoft y a Google, lo cierto es que prácticamente todas las compañías tecnológicas tanto presentes en España como en el resto del mundo desean un trozo del pastel. Incluso Meta, que pese a seguir sumergida en su idea del metaverso, ha dejado clara su intención de participar en el mercado de IA. Por ello, la compañía de Zuckerberg está anunciando su primera familia de chips para ejecutar inteligencia artificial.
Según ha anunciado la propia compañía, la firma está desarrollando el que será su primer catálogo de chips específicamente desarrollado para ejecutar modelos de IA, similares a los que ya están arrasando el mercado, como GPT-4. Este chip, así como otras iniciativas dentro del marco de la IA, podrían ser vitales para la competitividad de Meta dentro de este mercado.
MTIA, por sus siglas en inglés, "Meta Training Inference Accelerator", se establece como una "familia de chips aceleradores internos y personalizados que se enfocan en las cargas de trabajo de inferencia". Estos dispositivos sobre el papel ofrecen una mayor potencia de cómputo y una mayor eficiencia informática que los procesadores convencionales, ya que está personalizado para los flujos de trabajo internos de Meta y para inferencia.
El nuevo chip de Meta
Primero, algo de historia. Hasta el momento, la infraestructura de Meta para flujos de trabajos basados en inteligencia artificial estaba prácticamente basada en su mayoría por soluciones de procesamiento gráficos principalmente provenientes de Nvidia. Es el ejemplo, sin ir más lejos, del RCS de Meta. Dado el interés extremo de la compañía de Zuckerberg en el metaverso y a su necesidad de afianzar y mejorar sus cargas de trabajo de IA, en 2020 Meta decidió involucrarse en el desarrollo de chips.
Y es que estas soluciones basadas en GPUs no son, en palabras de la compañía, la opción más eficiente en los distintos procesos de entrenamiento de modelos de inteligencia artificial, especialmente en lo que a inferencia se refiere. Inferencia es un término que se usa para la fase posterior al entrenamiento de un modelo, que en esencia consiste en poner en marcha lo aprendido por una IA, a grandes rasgos.
Estos procesos de entrenamiento necesitan una amplísima capacidad de cálculo (algo que no sucede en la inferencia, que requiere bastante menos potencia). Por ello, los MTIA son chips específicamente diseñados para la inferencia, siendo chips bajo el proceso de fabricación de TSMC de 7 nanómetros y que pueden soportar hasta 128 GB de memoria.
Tal y como recogen en TechCrunch, MTIA no viene solo, ya que ha sido presentado junto a un nuevo ASIC, pensado para ayudar a la transcodificación de vídeo. Este es un circuito integrado que, como su nombre indica, está hecho para aplicaciones muy concretas y se ha diseñado a medida para tal fin y su nombre es MSVP, por sus siglas en inglés, 'Meta Scalable Video Processor'.
El MSVP está diseñado para admitir tanto transcodificación de alta calidad para vídeo bajo demanda y para soportar "la baja latencia y los tiempos de procesamiento más rápidos que requiere el streaming", relata Meta en un comunicado separado. La idea es que el MSVP pueda servir para establecer contenido basado en IA en las aplicaciones de Meta más usadas.
El MSVP se trata de la primera solución ASIC desarrollada internamente por Meta, y desde la compañía explican que es programable y escalable. Lo que pretende la firma con el MSVP es "traer nuevas formas de contenido de vídeo a cada miembro de la familia de aplicaciones de Meta, incluyendo el contenido generado por IA".
Lo que busca Meta con estos chips internos rediseñar y mejorar la infraestructura de la compañía dedicada al flujo de trabajo basado en IA de la compañía. Uniendo el MTIA con GPUs dedicadas a la computación de IA, Meta asegura que se logra un mejor rendimiento y una menor latencia, así como una mayor eficiencia para cada una de las cargas de trabajo de la compañía.
Meta se enorgullece de su chip, explicando que el procesador aumenta "en gran medida" la eficiencia de la compañía en términos de rendimiento por vatio cuando se ejecutan cargas de trabajo de IA. Eso sí, admiten que el chip aún necesita trabajo, ya que presenta cuellos de botella a medida que los modelos de IA van aumentando en tamaño, obligando a que las cargas de trabajo se dividan en varios chips.
Un centro de datos renovado
Junto al MTIA, Meta ha querido incidir en algunos de sus proyectos futuros, como un centro de datos de próxima generación que será capaz de admitir tanto productos actuales como "futuras generaciones de hardware de IA para captación e inferencia". Este nuevo centro de datos tendrá un diseño específicamente optimizado para inteligencia artificial y tendrá refrigeración líquida, así como una red de IA de alto rendimiento.
[La nueva IA de Meta supera a Google Translate: traduce 200 idiomas en tiempo real]
Esta red "conectará miles de chips de IA MTIA para grupos de entrenamiento de inteligencia artificial a escala de centro de datos", y promete ser más rápido y rentable de construir que otros centros de datos. Un nuevo proyecto que viene en un momento clave para la compañía, que busca destacar en un mercado que poco a poco se va saturando de agentes intentando hacerse con el control de la inteligencia artificial.
La compañía de Mark Zuckerberg ha querido incidir en cómo construyen prácticamente todo, "desde los centros de datos hasta el hardware del servidor y los sistemas mecánicos que mantienen todo en funcionamiento", permitiéndoles aprovechar su control sobre su infraestructura y personalizarla para sus necesidades concretas.