La estandarización, la clave para el desarrollo del 'edge computing' en la empresa
Líderes de Red Hat, HM Hospitales, Repsol y Telefónica Tech comparten con D+I sus retos, planes e impresiones sobre el desarrollo del 'edge computing' en sus organizaciones, tecnología estrella del reciente MWC 2023.
14 marzo, 2023 01:36El edge computing o lo que es lo mismo, la computación en el extremo, no deja de acaparar titulares junto a tecnologías como 5G o IoT, tal y como hemos visto en el reciente Mobile World Congress. Una nueva era hiperconectada que promete transformar tanto los procesos y estructuras de trabajo como los flujos de información y que ya se está dibujando en la actualidad, con incipientes proyectos que buscan situar la computación en el punto donde se generan los datos, o lo más cerca de ellas posible.
Una ola de “inteligencia distribuida” que abre nuevas oportunidades pero también nuevos retos para compañías, operadores de telecomunicaciones y proveedores de tecnología.
Y precisamente esta realidad repleta de novedosas oportunidades y desafíos quedó patente en el encuentro organizado por D+I y en el que representantes de Red Hat, Repsol, HM Hospitales y Telefónica Tech compartieron su visión sobre una de las temáticas estrella de este 2023.
Agilidad en la toma de decisiones
Una tecnología que, en palabras de Alberto Torres Moreno, OpenShift & AppDev Business Development Manager en Red Hat, es por fin tangible. “Estamos asistiendo a un aterrizaje real del edge computing y esto supone un reto apasionante que no solo permitirá beneficios operativos o una mejor experiencia del usuario sino que además es esencial para las llamadas empresas data driven, organizaciones que puedan tomar las decisiones de negocio basándose en los datos de forma más ágil que nunca”.
Y es precisamente esa toma de decisiones más rápida, en el punto mismo en el que se producen los datos, lo que destacaba Alberto Estirado Bronchalo, director de Transformación Digital y CIO de HM Hospitales. “En nuestro caso, el de la sanidad, el edge computing va a ser especialmente relevante porque tenemos muchas aplicaciones, dispositivos, etc. en el edge. Imaginemos únicamente lo equipos de diagnósticos por imagen de un hospital y la cantidad ingente de datos que generan. Llevarlos a la nube para poder analizarlos y extraer el valor que encierran es inviable por tiempos. La agilidad que va a permitir edge computing en ese sentido no tiene precedentes”, afirmaba.
Algo en lo que coincidía Teresa Verdú, directora de Servicios de Infraestructura IT en Repsol, quien además de revelar cómo en la llamada “segunda ola digital” de la compañía que abordan ahora, junto a 5G, la Inteligencia Artificial o el IoT, el edge computing es uno de los ejes estratégicos.
Sin embargo y pese a grandes ventajas como la agilidad, Verdú ponía sobre la mesa también los retos que esta nueva forma de computación representa. “Edge computing implica nuevos desafíos en cuanto a la ciberseguridad pero también en cuanto a la complejidad de gestión. Todo lo que hemos aprendido y ganado con el paso a la nube no podemos perderlo con el edge. Necesitamos mantener una gestión unificada y, por eso mismo, pido a la industria tecnológica que no desarrollen soluciones propietarias sino interconectadas, que puedan interactuar entre ellas. Es la única vía para que podamos escalar y adoptar realmente el edge computing con éxito”.
La interoperabilidad como requisito indispensable para el futuro del edge computing fue así mismo una de las reflexiones de Andrés Escribano, director de Nuevos Negocios e Industria 4.0 de IoT & Big Data en Telefónica Tech. “Es cierto que actualmente no hay sólo un estándar pero se está trabajando para lograrlo. En el desarrollo de edge computing es esencial la interoperabilidad en el ecosistema. Es necesario crear un framework estable que permita crecer y en eso estamos trabajando; es una demanda del mercado y yo estoy convencido de que, en uno o dos años, convergerán todas estas tecnologías”, afirmaba.
En busca del estándar
Estándares abiertos que ya forman parte del ADN de Red Hat, según Alberto Torres. “Nosotros trabajamos con tecnología 100 % open source y, actualmente, estamos colaborando con otras grandes empresas tecnológicas para desarrollar proyectos de código abierto. Esa es la tendencia pero es cierto que nosotros estamos en la plataforma base de las arquitecturas edge y por encima hay distintas soluciones verticales en las que aún hace falta mucho trabajo que realizar para interconectar todas esas capas”.
Una labor necesaria para permitir que el dato no solo viaje del edge al data center sino también a la nube, para que pueda hacer todo ese recorrido sin barreras, que marca el desarrollo de esta tecnología como reiteraba el director de Transformación Digital y CIO de HM Hospitales: “La inversión económica es elevada y por eso mismo ya todos los fabricantes están trabajando para desarrollar soluciones estándar y si no lo son sí al menos permitir que todas las piezas encajen, que se puedan conectar entre ellas”.
Además de la necesidad de estandarización, otro de los aspectos que se analizaron durante el encuentro fue la importancia de encontrar aplicaciones de negocio en las que realmente el edge computing aporte valor.
“Lo más importante es encontrar casos de uso de negocio que justifiquen el uso de esta tecnología y permitan obtener un retorno de la inversión. Es el momento de iniciar el proceso de prueba-error”, explicaba el director de Nuevos Negocios e Industria 4.0 de IoT & Big Data en Telefónica Tech.
En ese sentido, Teresa Verdú señala cómo en Repsol ya se están haciendo pruebas para aplicar edge computing a la monitorización de instalaciones o, incluso, para la trazabilidad de las bombonas de butano de la compañía. “Queremos ser una referencia en esta tecnología”, aseguraba.