Inteligencia artificial y procesadores gráficos para ‘dar vida’ a los datos
Los expertos subrayan en el evento celebrado por primera vez en Barcelona: “Debemos preguntar al cliente qué está haciendo y qué es lo que quiere hacer”rn
9 diciembre, 2018 07:00Al CEO de una compañía le pagan para que sea capaz de sintetizar su mensaje. George Kurian, jefe ejecutivo de NetApp se presenta bajo una frase, "el mundo está cambiando rápidamente en sus fundamentos". Pero luego incluye otra: "La transformación digital requiere transformar el IT". El cambio es el mensaje.
"Las reglas son diferentes, en los últimos tres años", añade Kurian, durante la keynote del multitudinario NetApp InSight celebrado esta semana, por primera vez, en Barcelona. "Hay cambios fundamentales en dos aspectos del negocio: clientes y desafíos. La tecnología nos está cambiando como seres humanos y las reglas de éxito digital son distintas de las de los viejos negocios. La velocidad es la nueva escala: Ikea, funciona desde 1943. En 75 años ha construido 300 tiendas en todo el mundo y tiene unos 300 millones de clientes. Es un ejemplo de escala en el mundo tradicional. Si lo comparamos con Fortnite, el juego multiplayer online ha conseguido 125 millones de clientes en sólo ocho meses".
El CEO de NetApp ofrece un alivio a las compañías clásicas desbordadas por la nueva ola: "Si eres una vieja empresa, tienes algo que las digitales recién nacidas no poseen: tus datos". Pero el resto sigue en la línea de la aceleración. "La multinube híbrida es la arquitectura de facto. Y para manejar los nuevos tipos de datos y procesarlos en tiempo real, donde estén, hay que pasar al data fabric", el ‘tejido de datos’ agnóstico que propugna NetApp para moverse entre todas las nubes.
Esa posibilidad de bailar entre todas las nubes trae otro factor de cambio. "La inteligencia artificial (IA) domina las noticias para las empresas, pero depende de los niveles de datos disponibles, para hacer analítica predictiva útil", advierte a INNOVADORES Octavian Tanase, el vicepresidente responsable de Ontap, el software que juega un papel de ‘sistema operativo’ entre nubes. "Y ahora también el internet de las cosas (IoT)", puntualiza. "Al principio la nube se utilizaba para hacer copias de seguridad. Luego para DevOps y ahora, hasta para hacer innovación y dar vida a los datos", añade.
"Lo que debemos preguntar al cliente es qué está haciendo y qué es lo que quiere hacer", señala Hoseb Dermanilian, manager de soluciones inteligencia artificial, machine learning y Big Data para EMEA. Dermanilian ve nuevas disyuntivas: "Las empresas que no tienen un científico de datos en casa, o no pueden hacer la inversión para sus propias GPU, pueden usar los servicios que hay en las nubes. Pero cuando sí tienen su propio experto, el científico de datos normalmente quieren su propia infraestructura".
"La verdadera productividad en IA debe estar on premise [en el data center propio] con los grandes volúmenes de datos relevantes. Por diversos motivos. El primero es el coste. El segundo, la privacidad de los datos. Probablemente utilizarás datos que no son muy importantes para hacer pruebas. Cuando empiezas la producción real con IA, no querrás tener esos datos en la nube", apunta.
Nube adecuada
"Esto no quiere decir que la nube no sea adecuada para la inteligencia artificial. Muchos clientes empiezan probando las herramientas con las que compiten entre sí las superscalares", dice Dermanilian, recordando el caso de un cliente que "hace reconocimiento de imagen con las herramientas de AWS, pero para convertir voz a texto utiliza las de Google Cloud y mueve sus datos con Equinix".
En ese mundo de cambios continuos y rápidos, otra novedad que se dibuja es la preeminencia de las GPU (unidades de proceso gráfico) sobre las CPU (los procesadores clásicos), por su capacidad para operaciones reiterativas de machine learning. NetApp muestra un equipo reducido, Active AI Cube, con GPUs y muchos núcleos de NVIDA.
¿Volverá a ser una ‘compañía de hardware’? "No, no", replica Dermanilian a INNOVADORES. "Seguimos siendo de software. Hacemos deep learning con Spark, usando CPU, pero tenemos un proyecto con GPU aceleradas para bases de datos. En un año ha cambiado radicalmente el big data". Es el cambio continuo. Lo que decía Kurian.
Dragones digitales en las nubes
Kate Swanborg, de Dreamworks, contó su caso de uso sobre entrenados dragones digitales: "Cada detalle de cada dragón, cada nube, cada detalle, son diseñados en el ordenador. Es una película de 90 minutos, 24 fotogramas por segundo, 130.000 fotogramas. Manejamos 500 millones ficheros por cada película. Estrenamos dos al año y se tardan cuatro años en cada una, así que hay hasta 10 films en producción a la vez, eso son 5.000 millones de ficheros activos. Podemos hacerlo porque trabajamos en una plataforma hypercloud, en la que conectamos cualquier fichero y cualquier película en cualquier momento".