Cuando un chip ya no basta: la coexistencia hace la magia
La inteligencia artificial o el uso de blockchain traen consigo una complejidad técnica que guarda su mejor reflejo en la creciente compenetración de chips de procesamiento de los servidores de nuevo cuño
21 abril, 2019 07:00En los anales de la informática, a los sistemas se les exigía ser capaces de procesar determinadas operaciones matemáticas más o menos complejas. Luego se fue complicando el asunto, incluyendo el manejo y la búsqueda de información recogida en bases de datos con miles de millones de registros.
Como no era bastante en la particular evolución de la técnica, al clásico contenido en texto fuimos añadiendo elementos multimedia y no estructurados que también habían de ser gestionados por los equipos digitales. Así hasta llegar a la exigencia de ejecutar exigentes algoritmos de inteligencia artificial en tiempo real. Y todo ello mientras en la retaguardia se libraba una batalla entre ese aumento de computación -al calor de la Ley de Moore- y la demanda de un menor coste por unidad y un consumo de energía cada vez menor.
En el plano más técnico, esta disyuntiva se plasma en una particular escalada de procesadores que tratan de aunar los beneficios de cada uno de los mundos, de abarcar parte de cada uno de esos desafíos de la mejor manera posible. Así, los servidores al uso fueron optando por chips x86, de extraordinario rendimiento pero muy caros y con gran consumo energético. Otras empresas fueron optando por sistemas basados en chips ARM, los mismos de las tabletas o smartphones, que si bien no llegaban al mismo umbral de potencia, compensaban esta carencia con una mayor eficiencia al disponer de menos transistores que sus hermanos de batalla. Para las cargas gráficas (y ciertos paradigmas como el blockchain, el chip elegido fueron los de procesamiento gráfico (GPU). Y, finalmente, la irrupción de la inteligencia artificial hizo necesaria la creación de unidades de procesamiento neuronal (NPU) capaces de dar rienda suelta a todos los cálculos necesarios para extraer conclusiones válidas en tiempos prácticamente imposibles.
Con todo ello, las empresas han pasado de disponer de equipos que respondían con una única arquitectura y tipología común para abordar un nuevo entorno en el que cada necesidad específica de la organización ha de resolverse de forma individualizada. Los centros de datos se convierten, de este modo, en un compendio de sistemas distintos con semiconductores moldeados de mil y una manera distintas.
Divergencia convergente
Esta divergencia convergente, en la que los chips cada vez se diferencian más pero han de trabajar codo con codo, no es nueva en el mercado. De hecho, AMD ya compró en el pasado la empresa de tarjetas gráficas ATI para complementar su estrategia de procesadores con GPU de primer nivel. ARM, creadores de la arquitectura de mismo nombre, también poseen soluciones específicamente diseñadas para estos sistemas gráficos.
Nvidia, fabricante clásico de tarjetas gráficas para entornos de gaming o edición de vídeo, ha visto muy rápido el filón de sus sistemas para explotar la minería de bitcoin. Y mientras tanto, Intel, rey y señor de los chips x86, ha sido también uno de los pioneros a la hora de introducir las NPU en un sector que todavía trata de comprender el alcance potencial de esta tecnología.
Entre tanto, los fabricantes mismos de servidores y los integradores de centros de datos tratan de abordar, con una perspectiva holística y comprehensiva,esa misma divergencia convergente. Así pues, la inmensa mayoría de ellos cuentan ya en su catálogo con propuestas basadas en las dos arquitecturas predominantes (ARM y x86) y acompañadas de GPU y NPU según se tercia.
Incluso algunas marcas, como la china Huawei, han ido más allá al defender la total integración de estos cuatro nombres propios en un mismo entorno de trabajo, con el fin de explotar las capacidades de cada cual en el modo más provechoso posible.
Al respecto, David Wang, presidente de productos y soluciones de Huawei, ha explicado esta semana en Shenzhen (China) que "la arquitectura TIC no ha cambiado en los últimos 50 años de manera destacada". Por el contrario, el ejecutivo entiende que la apuesta por una infraestructura más diversificada (que englobe tanto x86 como ARM, GPU y NPU) es la respuesta para "redefinir la arquitectura de la computación, no solo en el servidor, sino también en lo que afecta al almacenamiento y la conectividad".
En ese sentido, Huawei lanzó a finales de año y principios del actual chips basados en x86 con capacidades de inteligencia artificial, mientras que dio vida a procesadores ARM64 con estas mismas potencialidades hace dos semanas. Con ello, la multinacional se ha atrevido también a configurar una plataforma de computación -Atlas AI- que busca consolidar esas mismas sinergias entre los dispositivos edge, el computador central y los servicios desplegados en el cloud. "El objetivo es llevar todas estas capacidades inteligentes a todos los niveles de la computación, de modo que podamos soportar diferentes cargas de trabajo con las diferentes alternativas tecnológicas que proponemos", explicó Ma Haixu, presidente de Huawei Cloud Core Network Product Line.
Con todo ello, el siguiente reto que se plante a las empresas es cómo orquestar este complejo ecosistema de sistemas distintos, evitando caer en redundancias innecesarias o enviando las cargas de trabajo a los equipos que ofrecen el mejor rendimiento. Puede parecer algo baladí, pero lo cierto es que ya hemos visto cómo en momentos de complejidad las empresas tienden a cometer errores y realizar inversiones que no resultan convenientes a largo plazo. Y lo que es peor: una vez cometido el despliegue ineficaz, corregirlo suele ser mucho más costoso que el desembolso inicial en estas infraestructuras.
Una preocupación que, además, resulta fundamental si tenemos en cuenta la extensión de todas estas arquitecturas y tipologías de chips fuera del centro de datos tradicional, hacia el extremo. Más divergencia convergente imposible.
Innovación: un mercado de 100.000 millones
El desarrollo de los nuevos modelos de computación basados en estos cuatro pilares no está siendo sencillo y obliga a los fabricantes a costosísimas inversiones en innovación y desarrollo. Un I+D que, además, no puede ser propietario. Porejemplo, Huawei ha creado un ecosistema de un millónes de desarrolladores, con más de 1000 servicios gratuitos y 100 partners, con el objetivo de abordar este negocio que valoran en más de 100.000 millones de dólares.