La inteligencia artificial es omnipresente en el estado actual de la innovación tecnológica. Y la IA se alimenta de datos. Es su razón de ser, su soporte vital. Pero a George Kurian, CEO de NetApp, no le basta con llevar los datos a la IA. Para él, innovar ahora mismo exige "llevar la IA a los datos, donde quiera que estén".
"Estamos ante una encrucijada de la era de los datos y la inteligencia. Durante muchos años la humanidad ha conocido múltiples tendencias que se entrecruzan y ahora han alcanzado al punto de crescendo", afirma Kurian en una reunión con un grupo de periodistas en la conferencia anual Insight en Las Vegas.
"Lo primero es el interés en comprender el comportamiento humano para, luego, pasar de la comprensión a la percepción y la predicción. Y, lo segundo, la necesidad de recopilar datos para entenderlo", prosigue el CEO de NetApp, recordando que "los primeros conjuntos de datos a gran escala fueron los censales. El primer censo reportado ocurrió en Babilonia, hace miles de años".
Pero las cuestiones del momento se centran en la gestión de cantidades masivas de datos y la aplicación de inteligencia artificial para ello. Kurian subraya "cuatro claves para el éxito en esta era de la inteligencia artificial. La primera es tener una buena estrategia de datos".
"La segunda clave es que, cuando todo el mundo tiene herramientas muy poderosas para analizar sus datos, hace falta un conocimiento profundo de cuáles son los que necesita para su negocio", prosigue.
"La tercera es probar, aprender y adaptarse deprisa. Las tecnologías progresan a gran velocidad y se trata de llevarlas rápidamente del laboratorio a la producción. Y, por último, la cuarta clave es tener un ecosistema empresarial que ofrezca una visión cada vez más rica de sus datos. El nuestro está ayudando a los clientes desde el principio, su estrategia de datos".
Unificar el acceso a los datos
Para NetApp, la base de su estrategia consiste, desde hace años, en unificar el acceso a los datos. No mantenerlos aislados en silos diferenciados y con distintos controles, sino visibles todos ellos de manera conjunta, aunque estén repartidos entre la nube (incluso de diferentes proveedores) y almacenamientos on premise (en servidores locales propios).
Dice Kurian que se trata de poder "unificar los datos transaccionales disponibles sobre un cliente, junto con su videoconferencia más reciente y el registro de su centro de atención al cliente, todo en una única vista". Y, por supuesto, estén donde estén los diversos registros.
"Actualmente, estamos resolviendo el gran problema de la era de los datos y la inteligencia artificial, llevando la IA a los datos", explica. "Los clientes se enfrentan a un desafío de su gestión, tratando de impulsar análisis avanzados o aplicaciones de IA de varios tipos. Pero los sistemas de IA se están construyendo, a menudo, en un silo, con chips y redes especializados".
"Hemos visto, en muchos clientes, que sus sistemas no tienen acceso a los datos", incide. "Es muy parecido a lo que era la nube en los primeros años: era un silo distinto del almacenamiento on premise y se hacía necesario tender un puente entre ambos. Lo que estamos haciendo es muy parecido a construir nuestro tejido de datos, para unificar".
"Lo primero, estamos innovando la infraestructura de datos. Estamos ofreciendo una serie de herramientas que permiten al cliente entender y explorar dónde están todos sus activos, para que rápidamente pueda seleccionar los que necesita su IA", detalla Kurian
"En segundo lugar, estamos llevando la IA a la propia infraestructura de una manera ágil, alcanzable y segura, para que se pueda aplicar las consultas de IA a todos sus datos, donde quiera que existan".
Revolución en la tercera fase
Kurian cita a los matemáticos Gauss, Laplace y Legendre, cuyas técnicas están vigentes en el machine learning, para completar su puesta en situación del momento actual: "Estamos en la tercera fase de la revolución moderna de los datos".
El CEO de NetApp considera que uno de los "grandes desafíos para las organizaciones" es el reto de hacer la gestión "comprendiendo la seguridad y el control de los datos sensibles durante todo su ciclo de vida".
"Además de los avances para que los datos que forman parte de la infraestructura sean mucho más inteligentes, nos van a ver innovar en áreas como la trazabilidad de modelos, el control de versiones de los datos y la capacidad de moverlos en las aplicaciones que admiten IA, como las bases de datos vectoriales, de una forma mucho más eficiente que cualquier otra en la industria", asegura.
Esto implica extender la seguridad, privacidad y controles a todo el ciclo de vigencia de los datos: "Si implemento unas políticas de seguridad en datos confidenciales, cuando los cargue en un sistema o aplicación de IA, ¿se trasladan esas políticas? Innovamos para permitir un seguimiento de los datos que cambian, para que sean estos los que se apliquen en los modelos, incorporando también a lo largo del ciclo de vida todos los controles y políticas de seguridad que se han implementado".
Para poner los pies en la tierra, todo esto se concreta en anuncios específicos, que afectan particularmente a Ontap, la herramienta central del software de NetApp, que hace el trabajo de "sistema operativo de almacenamiento", según lo define la compañía, unificando contenidos de una o más nubes y los servidores locales, con un funcionamiento y visualización único.
Novedades en Ontap
Las principales novedades detalladas en el Insight son:
- Creación de un espacio global de metadatos (global metadata namespace), para explorar y gestionar de modo seguro y cumpliendo las normativas requeridas, a través del entramado híbrido multicloud de la organización usuaria. Permite la extracción y clasificación de los datos para el uso de la IA.
- Un canal IA directamente integrado, que facilita a Ontap, de forma automática e iterativa, la disponibilidad de datos no estructurados, detectando los cambios incrementales en el paquete de datos del cliente. Al mismo tiempo, desarrolla la clasificación y anonimización de los datos, según las políticas establecidas. Genera vectores integrados altamente comprimibles y los guarda en una base de datos de Ontap, lista para escalar, con búsquedas semánticas de baja latencia e inferencia RAG (retrieval augmented generation).
- Una arquitectura de almacenamiento desagregado, que facilita compartir los recursos disponibles, para rebajar costes de infraestructura y maximizar el uso y aprovechamiento de la red y las velocidades de almacenamiento flash. Pretende mejorar el rendimiento en actividades intensivas de la IA, como los entrenamientos de LLM. Todo ello ocurre, asegura la compañía, manteniendo las ventajas de resiliencia, gestión, seguridad y gobernanza de Ontap.
- Además, NetApp anuncia que está preparando una plataforma de datos integrada y centralizada, a través de todos sus servicios nativos de la nube, para la ingesta, detección y catalogación.
Otro plato fuerte del evento es el anuncio de un acuerdo estratégico con Nvidia para utilizar sus aplicaciones IA en la infraestructura gestionada con Ontap. Amplia la certificación de almacenamiento DGX BasicPOD, que ya tenía, a DGX SuperPod y se asegura la disponibilidad de los chips especializados para IA en su oferta de servidores.
En Las Vegas, NetApp ha presentado nuevos servidores de las familias FAS (con almacenamiento híbrido flash, para casos de uso secundario), AFF y ASA (ambas para tareas de alto rendimiento), que podrán contar con GPUs de Nvidia.
Creación de valor con la IA
Sobre este asunto, los chips de Nvidia (que está haciendo ese tipo de acuerdos con la mayoría de las grandes tecnológicas), DISRUPTORES-EL ESPAÑOL le preguntó a Kurian si teme o prevé futuras dificultades en ese mercado hardware.
"Lo que vemos es que, en el mercado de la IA y los semiconductores, lo prioritario [ahora] es el entrenamiento [de los modelos de lenguaje], que es una parte muy pequeña en la creación de valor. Y luego la inferencia, que es donde realmente se genera valor", responde el CEO de NetApp,.
"Pensamos que la primera fase en este viaje de la IA, el entrenamiento pesado, se completará en algún momento próximo. Cuando puedan llevarse a la empresa los modelos fundacionales [que se están entrenando], y se pongan a trabajar, es cuando aparecerá el verdadero dinero", completa, asumiendo que es entonces cuando resultará más valioso contar con las eficientes GPUs de Nvidia.
Pero Kurian añade otra consideración relevante, tras aclarar que su colaboración con Nvidia empezó en 2018: "También vemos que la tendencia a usar modelos pequeños de lenguaje se está popularizando en muchos clientes. Dependiendo de los casos de uso, los SLM pueden correr en CPUs tradicionales, sin necesidad de usar GPUs para hacerlos funcionar, así que habrá un amplio margen de opciones".
El máximo responsable de la multinacional de Sunnyvale (California) también dedicó algún tiempo a analizar el panorama evolutivo de la inteligencia artificial y la ciberseguridad, con una preocupación prioritaria: el ransomware, el secuestro de los datos de una empresa, encriptándolos, para exigir rescate.
"La recuperación es lo que más nos requieren [los clientes], cuando hablamos sobre la protección frente al ransomware. Es una prioridad de máximo nivel y nosotros estamos cambiando el juego: de actuar después del suceso, a detectarlo en tiempo real", asevera Kurian.
"Eso significa que, en vez de detectar los ataques en cuestión de horas o días, puede hacerse en segundos, como prerrequisito para una rápida recuperación con lo que llamamos snapshots".
El procedimiento de seguridad que anuncia NetApp se basa en comprobar comportamientos o actividades anormales en la red corporativa, utilizando para ello inteligencia artificial. De ese modo, asegura que cuando se inicia un ataque puede detectarlo con gran rapidez, saber con certeza qué contenidos han sido afectados y bloquearlos, para asegurar el sistema y recuperar con inmediatez los datos atacados.
Dada la omnipresencia de la IA en todo lo novedoso, DISRUPTORES-EL ESPAÑOL aprovechó para preguntarle a George Kurian sobre la polémica que no deja de crecer a propósito de las regulaciones. Y, en particular, la postura de NetApp ante una carta firmada por muchas de las grandes tecnológicas, que reprochan a la Unión Europea lo que consideran frenos a la innovación con las reglas que impone la AI Act.
"Sobre las diversas formas de regulación, y concretamente la de la UE, nuestra opinión es que hay riesgos en ella. Me gusta cualquier herramienta poderosa y la idea de agregar datos para obtener información. Naturalmente, esto debe generar preocupaciones sobre sesgos y un posible uso inadecuado. De hecho, lo que es históricamente cierto es que la persona que creó las herramientas estadísticas de regresión y agrupamiento [el polímata Francis Galton], que es la base de en gran medida de la IA moderna, también fue el creador de la eugenesia, que es la base de la mayoría de las ideologías racistas en el mundo. Así que hay motivos para preocuparse", advierte Kurian.
“Nuestra opinión es que, si la regulación se centra en el riesgo; si se trata de proteger particularmente a los más vulnerables, como los consumidores, que no tienen la capacidad de abogar en su nombre; si es adaptativo, lo que significa que reconoce los avances de la tecnología y los apoya para mitigar el riesgo; y si se equilibra con la autorregulación de la industria y facilita que los consumidores puedan tener una agencia que actúe en su nombre… eso ayudará al mundo en general a utilizar la IA con más confianza. Y creo que dará un buen resultado para la gente”, remata Kurian, eludiendo hábilmente con sus "If…" pronunciarse de manera específica sobre lo que ya está escrito y publicado en la normativa europea.