La virtualización de la red, el gran desafío del paradigma 5G
La última generación de comunicaciones móviles creará redes virtuales que tendrán que estar aisladas entre sí funcionalmente
27 marzo, 2018 16:00Cuando en 1923, el cuerpo de policía de Victoria, Australia, adoptó el uso de comunicaciones inalámbricas en coches, se estaban dando los primeros pasos de las comunicaciones móviles. No obstante su desarrollo y disfrute definitivo por parte del gran público tuvo que esperar hasta principios de la década de 1980 cuando aparece la primera generación de comunicaciones móviles celulares, 1G.
El nuevo paradigma celular, propuesto ya en 1947 y hoy día todavía vigente, consideraba la superposición de zonas de cobertura reducida, o células, con antenas a baja altura, en lugar de zonas de cobertura muy grandes con una única antena fija a gran altura, que era lo habitual hasta esa fecha. Este despliegue permitía reutilizar muchas veces las mismas y escasas frecuencias (espectro radioeléctrico) disponibles, entre las distintas células de una zona de cobertura. Se multiplicaba de esta manera la oferta de frecuencia y se conseguía una potencial base operativa de millones de usuarios.
Pero la naturaleza analógica de la tecnología utilizada, FM, imponía sin embargo muchos inconvenientes, lo que impulsó una segunda generación, 2G, en la década de 1990, con tecnología digital y cuyo sistema más popular es el conocido como GSM. La 2G, concebida, todavía, para proporcionar servicios de telefonía móvil, fundamentalmente , introdujo la confidencialidad en las comunicaciones, la itinerancia o roaming y el SMS.
La irrupción de Internet, para la que GSM no había sido diseñado, propició, a su vez, la aparición de la tercera generación, 3G, en la década de 2000, con velocidades de transferencia de datos que permitían la navegación por Internet desde los teléfonos móviles.
En pleno apogeo de esta tercera generación, en 2007, aparece el primer teléfono inteligente, el iPhone 4, que revolucionará el sector modificando radicalmente la experiencia del usuario y poniendo los cimientos para la proliferación de un ecosistema de aplicaciones (WhatsApp, Instagram, etc.) que han conviertido al móvil en el dispositivo central en el día a día de muchas personas.
La tecnología de radio de 3G, basada a su vez en una estrategia de transmisión, robusta a las interferencias, e introducida en la segunda guerra mundial, estaba, no obstante, fuertemente condicionada por limitaciones insalvables en la velocidad de transmisión, que impedían afrontar con éxito la creciente demanda de Internet móvil.
En la década de 2010, aparece la cuarta generación, 4G, que introduce una nueva tecnología de radio que permite velocidades un orden de magnitud superiores a las de 3G, (ej. 10Mb/s), similar a las proporcionadas por otras tecnologías como WiFi y ADSL, facilitando el acceso rápido a contenidos. En 4G, los bits ya no se envían de manera continua, sino que se agrupan y transmiten en paquetes. Ello permite aprovechar sinergias con Internet, que usa la misma estrategia de transmisión, al explotar economías de escala y reducir unos costes que habían hecho insostenible la tecnología 3G.
A partir de 2020 se prevé el despliegue de los sistemas 5G. A diferencia de las generaciones anteriores, diseñadas fundamentalmente para proporcionar servicios de comunicaciones a personas, la 5G, además de aumentar las velocidades de transferencia de los servicios de banda ancha tradicionales hasta valores cercanos a los proporcionados por la fibra óptica, está destinada también a satisfacer necesidades específicas de otros mercados como los sectores de transporte, seguridad pública, industria, etc., cuyos requisitos no pueden ser cubiertos por las generaciones actuales.
En particular, uno de estos requisitos que la 5G habilitará definitivamente, es el que se deriva de la irrupción de un nuevo escenario de comunicaciones masivas máquina-a-máquina. El elevado número de objetos a conectar, con una estimación para 2020 de 50.000 millones, operando en muchos casos a velocidades reducidas, supera con creces el número de personas y desborda las capacidades ofrecidas por las generaciones actuales, diseñadas fundamentalmente para satisfacer un número menor de usuarios pero con velocidades de transmisión elevadas.
Otro requisito que la 5G hará posible es el poder llevar a cabo misiones críticas. Ello implica, básicamente, que en tales escenarios la fiabilidad del servicio, entendida como la capacidad de garantizar la transmisión de un mensaje, esté garantizada hasta cotas de un 99,999 por ciento para un determinado retardo en la comunicación (latencia) que puede llegar a ser extremadamente bajo. En particular, el poder mejorar las latencias del orden de 50 milésimas de segundo (ms) de la 4G hasta latencias del orden de 1 ms, en situaciones extremas, es uno de los objetivos planteados en la 5G.
Los entornos de misiones criticas contemplarían aplicaciones de seguridad pública, cirugía médica remota, realidad aumentada, conducción autónoma o Industria 4.0, por citar algunos de los ejemplos más destacados, e incluiría tanto comunicaciones centradas en las personas como comunicaciones máquina-a-máquina. Cabe destacar que conseguir latencias muy reducidas entre los puntos extremos de las comunicaciones móviles constituyen un desafío igual o mayor que el derivado de alcanzar velocidades de transmisión elevadas, también objetivo en la 5G.
A nivel de red móvil, el desafío que plantea este nuevo paradigma radica en poder compartir de forma eficiente una única infraestructura física de la red móvil entre las diferentes aplicaciones y proveedores de servicios, tanto a nivel de enlaces de radio como de nodos ente enlaces. A cada aplicación o proveedor distinto se le asignará una porción, 'rebanada' o 'slice' en terminología anglosajona, de red, creando de este modo una red virtual y evitando así el despliegue de múltiples infraestructuras de red para cada una de las aplicaciones o proveedores.
La tecnología que hace posible esta partición se denomina virtualización, y es una extensión de la tecnología software ya utilizada en centros de computación en la nube. Cada red virtual debe satisfacer sus requerimientos con independencia de las otras, de las que debe estar aislada funcionalmente. Al mismo tiempo, los recursos utilizados por cada red virtual, ej. espectro radioeléctrico, se ajustarán dinámicamente para optimizar su uso.
En resumen, a la vista de lo anterior, un escenario 5G plausible, entre otros muchos, podría albergar simultáneamente una red virtual dirigida al gran público que soporta video 3D/pantallas 4K con velocidades de conexión superiores a 100Mb/s, una red virtual para comunicaciones máquina-a-máquina para un escenario de ciudades inteligentes con un despliegue masivo de sensores y una red virtual para dar un servicio de seguridad pública con fiabilidad extrema para sostener misiones críticas.
Ramón Agustí es académico de la Real Academia de Ingeniería.