A menudo tendemos a elegir grandes centros de datos ubicados en la principales urbes para alojar nuestros servidores, como una garantía de servicio por el renombre del proveedor. Sin embargo, en ocasiones, el resultado no es el esperado en términos de latencia y rendimiento.
La latencia es una cuestión física que depende de la distancia que separa al usuario de los datos a los que quiere acceder. Con el rendimiento sucede algo parecido ya que, a mayor cercanía, mayor será la velocidad y la capacidad de respuesta.
De ahí que surja una nueva tendencia en el mercado para acercar los centros de datos a los usuarios. Son lo que se denominan 'edge data center' o centros de datos de proximidad y su éxito reside en la optimización del rendimiento, la latencia y la eficiencia operativa.
Cuanto más cerca esté un centro de datos de los usuarios finales o de otros servicios a los que necesita acceder, menor será la latencia y, por ende, mejor la velocidad de acceso a datos y servicios, lo que es crítico en aplicaciones que requieren respuestas rápidas, como juegos en línea, transmisiones de video en tiempo real, aplicaciones interactivas y realidad aumentada.
Por otro lado, la cercanía física entre los servidores y los usuarios contribuye a un mejor rendimiento en términos de velocidad y capacidad de respuesta. Las aplicaciones y servicios alojados en centros de datos cercanos cargan más rápido y brindan una experiencia más fluida a los usuarios.
¿Qué impacto tiene la proximidad en los costes? Al tener centros de datos cercanos, es posible depender menos de soluciones de redundancia a larga distancia, lo que permite reducir los costes asociados con la duplicación de infraestructura y servicios en ubicaciones geográficas distantes. Además, permiten ir creciendo en función de las necesidades, por lo que los costes en despliegue así como en eficiencia energética, una vez están en producción, son menores que en data centers que, por naturaleza, se construyen para necesidades elevadas desde el inicio.
Estos nuevos centros de datos de proximidad destacan por cuidar aspectos tan fundamentales como la neutralidad, es decir, permitir la interconexión con todos los carriers del mercado; la eficiencia en la transmisión de los datos, al contar con infraestructura de red propia; y el cumplimiento normativo (ENS Alta, ISOs 27001 y 27018), requisito fundamental para algunos clientes por tener que almacenar sus datos de forma segura en ubicaciones geográficas específicas.
Asimismo, estos proveedores suelen contar con un portfolio cloud optimizado que completa la oferta a las necesidades específicas de los clientes, ofreciendo soluciones de respaldo y recuperación de desastres y servicios de nube pública y privada y servicios gestionados, de manera que el cliente pueda contar con único proveedor de confianza que le ofrezca un servicio integral con un SLA exigente.
Es el caso de OASIX, que nació como la división cloud y data center de Grupo Aire, un conjunto de empresas de telecomunicaciones líder nacional en servicios TI que, con el tiempo, ha ganado entidad propia. El secreto: contar con una red federada de ocho data centers neutros propios ubicados en diferentes puntos de la península ibérica y Canarias, construidos bajo la filosofía de acortar la distancia física con los usuarios y adaptarse a las necesidades de los clientes ofreciéndoles soluciones flexibles.
A través de un amplio porfolio de servicios cloud y aprovechando la red propia del Grupo Aire, los centros de datos de OASIX están logrando invertir la tendencia en el mercado, y conseguir que empresas y administraciones públicas prioricen la experiencia de sus usuarios y clientes optando por centros de datos más pequeños y próximos a sus localizaciones estratégicas sin perder calidad.
Entonces, ¿esto significa que todos los servidores deberían estar alojados en centros de datos de proximidad? La respuesta es “NO”. Encontrar el equilibrio adecuado entre la distancia física y la latencia en un centro de datos es un desafío importante, ya que diferentes aplicaciones y servicios pueden tener requisitos distintos: mientras que hay aplicaciones en las que la latencia juega un papel crucial, otras pueden ser más tolerantes.
La elección de la ubicación del centro de datos debe basarse en una evaluación integral de factores, incluyendo requisitos de rendimiento, seguridad, resiliencia ante desastres, costes y cumplimiento normativo. La decisión dependerá de las necesidades específicas de cada empresa y de su infraestructura.
Eso sí, siguiendo la praxis de los clásicos del Marketing de “colocar al cliente en el centro”, elegir un centro de datos cercano a los usuarios siempre permitirá mejorar la experiencia de usuario.
*** Zigor Gaubeca es CTO de Grupo Aire.