IBM ha anunciado hoy la expansión de su hoja de ruta para lograr la computación cuántica a gran escala. Su nuevo objetivo, marcado para 2025, es contar con un procesador de más de 4.000 cúbits construido con múltiples grupos de procesadores escalados modularmente.
Para ello, la compañía aprovechará tres pilares: hardware cuántico robusto y escalable; software cuántico de vanguardia para orquestar y habilitar programas cuánticos accesibles y potentes; y un amplio ecosistema global de organizaciones y comunidades preparadas para esta tecnología.
Se trata de un auténtico salto adelante en la carrera por comandar esta gran revolución de la tecnología. Solo retrocediendo a 2018, podemos comprobar cómo la misma IBM anunciaba a bombo y platillo sus primeros ordenadores cuánticos comerciales de apenas cinco y veinte cúbits. Por el camino, el Gigante Azul ha ido superando hitos, mientras competidores como Google también alcanzaban la supremacía cuántica con sus propios sistemas.
“Cuando pensamos en casos de uso, es importante aclarar que no es solo importante el número de cúbits. Igual de importante es la tasa de errores en las operaciones cuánticas: problemas en simulaciones de materiales tienden a ser imposibles de resolver clásicamente de manera exacta al nivel de decenas de partículas”, explica Zaira Nazario, líder técnico de teoría y aplicaciones cuánticas en IBM Quantum, a D+I.
Modular y luchando contra el ruido
Tal y como adelanta Nazario, escalar de semejante manera el número de cúbits exige importantes mejoras a varios niveles del diseño y operación de estos ordenadores cuánticos. En ese sentido, desde IBM trabajan en una triple línea de investigación para hacer frente a esos desafíos.
El primero consiste en desarrollar capacidades para comunicar y paralelizar operaciones de forma clásica en varios procesadores. Esto abrirá la vía a un conjunto más amplio de técnicas necesarias para los sistemas cuánticos prácticos, como mejora de mitigación de errores y orquestación inteligente de cargas de trabajo, combinando los recursos informáticos clásicos con procesadores cuánticos que pueden ampliar su tamaño.
El siguiente paso para ofrecer una arquitectura escalable consiste en desplegar acopladores de corto alcance. Estos acopladores conectarán varios chips para formar un procesador único y más grande e introducirán la modularidad, que es clave para escalar.
El tercer componente para alcanzar la verdadera escalabilidad implica proporcionar enlaces de comunicación cuántica entre procesadores cuánticos. Para hacerlo, IBM ha propuesto enlaces de comunicación cuántica para conectar clústeres en un sistema mayor.
“Se trata de una combinación de mejoras en el hardware, seguir aumentando la coherencia de los cúbits (por cuánto tiempo sobrevive un cúbit antes de convertirse en un bit común y corriente) y perfeccionar las operaciones cuánticas para disminuir los errores en ellas”, detalla Nazario. “Todo eso requiere mejoras en materiales, diseños, fabricación, aislamiento e integración en sistemas”.
En concreto, IBM está desarrollando técnicas de mitigación de errores, de supresión y de corrección. “La mitigación de errores tiene la ventaja de que no introduce cúbits ni operaciones extra, pero es limitado en cuanto al tipo de errores que puede corregir y viene con un coste exponencial en computación clásica, que estamos trabajando en reducir. Por su lado, los códigos de corrección de errores corrigen más tipos de errores, pero te cuestan cúbits y operaciones adicionales. Estamos también trabajando en códigos que nos permitan corregir más con menos”, añade la investigadora.
“A corto plazo la mitigación y supresión de errores va a ser muy importante. Luego vamos a ir combinando esas técnicas hasta llegar gradualmente a máquinas con corrección de errores de forma completa a más largo plazo”.
Asimismo, los sistemas se diseñarán para funcionar dentro de IBM Quantum System Two, que ofrecerá la infraestructura necesaria para vincular con éxito varios procesadores cuánticos. Se espera que el primer prototipo esté en funcionamiento en 2023.
Revolución científica y jaque al cifrado
Pero, ¿qué supone realmente lograr un computador cuántico de 4.000 cúbits? ¿Qué puede hacer que no haga ya un ordenador convencional o que hicieran sus antecesores de centenares de esos cúbits? Le preguntamos, como es menester, a Zaira Nazario.
“Al nivel de miles de cúbits, puedes estudiar, por ejemplo, procesos de catálisis, que es algo importantísimo tanto para procesos industriales como para poder resolver algunos de los problemas de sostenibilidad a los que nos encontramos”, introduce a D+I.
“En cuanto a encriptación, factorizar un número entero de 2.048 bits para romper la encriptación RSA, que es una de las dos más usadas, requeriría 6.200 cúbits, pero tienen que ser capaces de ejecutar 2.700 millones de operaciones. Eso quiere decir que necesitamos tener mucho menos que un error por cada 3.000 millones de operaciones”, añade la experta.
Para tener un poco de contexto, los mejores sistemas de hoy día tienen un error por cada 1.000 operaciones. “Así que necesitamos bajar esa tasa de errores más de un millón de veces y eso va a requerir una combinación de mejor hardware e implementar métodos escalables de corrección de errores. Nos falta bastante cuando miramos los números en perspectiva”, reconoce Nazario.
Una historia no tan larga
IBM, Google, Intel, Alibaba, Tencent, D-Wave y Rigetti fueron los primeros nombres que se lanzaron a la arena de la computación cuántica con sus equipos (después de las universidades y centros como el Max Planck europeo).
IBM anunció su primer ordenador cuántico en 2016, con apenas 5 cúbits. Un año después, hizo lo propio con uno de 16 cúbits, seguido seis meses después por otro de 20 cúbits de capacidad. En aquel 2018, su mejor computador cuántico universal (esto es, diseñado con un propósito general) tenía 50 cúbits.
Posteriormente, IBM presentó su procesador ‘Eagle’ de 127 cúbits en noviembre del pasado año, y para este mismo curso aspira a presentar otro procesador, esta vez de 433 cúbits, bautizado como 'Osprey'. También el año próximo verá la luz 'Condor', el primer procesador cuántico del mundo con más de 1.000 cúbits. Será la antesala de la gran disrupción que supondrá el recién anunciado computador de 4.000 cúbits.
En paralelo, hemos de recordar la declaración de la supremacía cuántica por parte de Google y su equipo de 54 cúbits, capaz de resolver en 200 segundos una tarea que le hubiera requerido 10.000 años al superordenador más potente del mundo. Contienda sin parangón por dominar el siguiente gran paradigma tecnológico.
Noticias relacionadas
- La carrera por la supremacía cuántica: Google vs. IBM
- Europa y España en la carrera cuántica: cómo abrirse paso ante la colosal apuesta de China y Estados Unidos
- España tendrá su propio supercomputador cuántico y busca crear ecosistema con una inversión de 60 millones
- El español que democratizará la computación cuántica