Los datos, al igual ocurre con los objetos, tienden a atraerse unos a otros a medida que se van acumulando. Un fenómeno al que en 2010 el ingeniero Dave McCrory comenzó a denominar data gravity y que une las leyes de la física y de las Tecnologías de la Información (TI) y las cruza con el actual entorno de transformación digital que está viviendo el mundo.
Este término describe el efecto que se produce a medida que se acumulan los datos: hay mayor probabilidad de que otros servicios y aplicaciones sean atraídos por esos datos, que tienen el mismo efecto gravitacional que un planeta ejerce sobre los objetos.
Un fenómeno que se está empezando a convertir en un desafío para las empresas a la hora de gestionar su operativa diaria en un escenario en el que estas compañías crean y almacenan datos a un ritmo que se acelera año a año, según constata el informe Data Gravity Index DGx elaborado por Interxion con el fin de conocer los efectos del crecimiento explosivo de los datos corporativos.
Y su conclusión principal es que la arquitectura de actual de TI de las empresas tiene limitaciones para procesarlos y la infraestructura se vuelve cada vez más compleja de gestionar. Esto inhibe la operativa diaria de la compañía, que no es capaz de mover los datos con rapidez y pierde así competitividad, según ha explicado a D+I, Raquel Figueruelo, BDM de Interxion.
El informe elaborado por la compañía especializada en centros de datos independientes mide la intensidad y la fuerza de atracción del crecimiento de los datos corporativos de las empresas que forman parte de la lista Forbes Global 2000 en 53 ciudades y 23 sectores de actividad con una fórmula desarrollada por el propio McCrory que analiza más de 1.000 variables.
Crecimiento exponencial de los datos
Este análisis revela que las empresas se enfrentan a un "crecimiento exponencial en todas las regiones y ciudades". En concreto, la fuerza de atracción de datos, en gigabytes por segundo, registrará mundialmente un CAGR (ratio de crecimiento anual compuesto) del 139% hasta 2024, ya que la gestión de datos obliga a las multinacionales a aumentar la capacidad de su infraestructura digital para agregar, almacenar y gestionar gran parte de los datos.
En concreto se estima que en 2024 las 2.000 empresas cotizadas más importantes del mundo de 53 ciudades crearán datos a un ritmo de 1,4 millones de gigabytes por segundo y necesitarán una capacidad de almacenamiento de datos de casi 20.000 petabytes por año.
En este escenario de crecimiento exponencial de los datos, el informe señala que Europa, Oriente Medio y África (EMEA) seguirá siendo la región que registre la mayor fuerza de atracción de datos en 2024 y para esa fecha habrá crecido casi el doble que América del Norte.
En este escenario, las seis ciudades que más crecimiento registrarán en los próximos cuatro años serán Yakarta, Singapur, Roma, Hong Kong, Melbourne y Atlanta. Sin embargo, son ciudades como Londres, París, Nueva York o Fráncfort las que concentran los mayores niveles de atracción de los datos.
Además, existen determinados pares de ciudades que intercambian grandes flujos de datos entre sí, aumentando la fuerza de atracción de datos, tanto dentro de la propia ciudad como entre ambas. Así, los binomios Londres-Ámsterdam, París-Londres y Washington D.C.-Nueva York, seguirán siendo los tres más interconectados en 2024, año en el que se prevé que Hong Kong-Tokio se cuele entre los diez primeros.
El informe también incluye por primera vez dos ciudades españolas: Madrid y Barcelona. Figueruelo explica que la previsión de crecimiento para Madrid es "bastante grande", aunque, en su opinión, este será mucho mayor del previsto debido al impacto que tendrá la llegada a la Península Ibérica de nuevos cables submarinos que convertirán a Madrid en el puerto digital donde se produce esta interconexión de los datos.
Madrid y Barcelona
En este sentido, también apunta que en Barcelona el CAGR será mayor que el de Madrid dado que la capital de España parte de un situación mejor y resalta el impacto que va a tener el Brexit, que hará que muchas empresas migren sus datos desde Londres a otras ciudades de EMEA, que verán registrarse un crecimiento mucho mayor del que prevé el índice.
Por otro lado, el estudio de Interxion resalta que este fenómeno se propagará a todos los sectores de actividad. "Ningún sector es inmune a los efectos del data gravity", afirma el informe, que prevé que hasta 2024 la fuerza de atracción de datos registre un CAGR del 144% en casi las tres cuartas partes de los 23 sectores analizados.
Además, añade que el volumen global de fusiones y adquisiciones volverá previsiblemente a niveles previos a la crisis de la covid-19 en próximos años, lo que acelerará el crecimiento de multinacionales e incrementará el número de fuentes de datos corporativos que participan en intercambios de datos.
A este respecto, Figueruelo explica que no todos los sectores parten de la misma situación, ya que, por ejemplo, el sector financiero es consciente desde hace años de la importancia de la atracción de los datos y de contar con latencias muy bajas a la hora de operar en bolsa. De ahí, que muchas compañías situaran sus servidores generadores de datos junto a las bolsas de Londres o Nueva York.
Cambios en la arquitectura
La pregunta que toca hacerse ante este crecimiento exponencial de los datos es si las empresas están preparadas para gestionar este escenario y mantener una excelencia operativa. El informe lo tiene claro: el modelo de arquitectura backhaul actual no puede responder a las necesidades de data gravity de la empresa, ya se trate de intercambiar datos a través de varias plataformas internas o externas, hacer copias locales de los datos o ejecutar análisis de rendimiento en cada punto de presencia.
Interxion remarca que el data gravity requiere interconectar empresas y proveedores de conectividad, nube y contenidos en una comunidad conectada que integre core, cloud y edge en centros de intercambio de datos, implementando una infraestructura híbrida segura y una arquitectura centrada en los datos en los puntos de presencia global de las empresas.
De esta manera, según el informe, se impone una nueva arquitectura, que invierte el flujo de tráfico y acerca los usuarios, redes y nubes a los datos corporativos alojados de forma privada. "La solución al final por la que aboga el informe es que tu arquitectura IP, para poder mover este volumen de datos, tiene que cambiar completamente y la tienes que diseñar conforme donde tengas tus datos", explica Figueruelo
En este sentido, remarca que las empresas cuentan cada vez con más fuentes generadoras de datos y la transmisión tiene que ser cada vez más inmediata manteniendo un nivel máximo de seguridad. De ahí, la importancia de que cada empresa encuentre una arquitectura para su red que transmita sus datos a la velocidad que necesite, al lugar que quiere y con la que seguridad que precise.
De no ser así, las empresas se enfrentan al riesgo de no tener disponibles los datos que realmente necesita y de estar almacenando un montón de datos sin aprovechar su potencial. "Es como ir sumando librerías y librerías, pero si nadie va quitando los montones de libros, clasificándolos, leyéndolos y extrayendo lo importante de ellos, no me valen para nada", incide.