A Richard Feynman, premio Nobel de Física, le debemos muchos de los grandes avances en esta ciencia de las últimas décadas. Pero, también, puede que le tengamos que honrar ante la que promete ser la siguiente gran revolución de la tecnología. No hablamos de la nube, no hablamos del internet de las cosas, ni tan siquiera del edge computing o el smart dust. Hablamos ni más ni menos que de la computación cuántica.
Si pensaban que la computación cuántica era cosa del futuro y de la ciencia ficción, no se alarmen: es normal. La evolución que ha experimentado esta tecnología en los últimos cinco años solo puede ser tildada de extraordinaria. "Hasta ahora, la tecnología cuántica había estado circunscrita al ámbito de la Academia, entendiendo su funcionamiento. No ha sido hasta estos años recientes cuando la hemos trasladado a la ingeniería, haciendo sistemas robustos y estables para, poco a poco, estar preparados para sacar provecho de esta nueva generación de computación", explica Jerry Chow, físico especializado en computación cuántica experimental.
No en vano, a pesar de la ambiciosa teoría de Feynman, no ha sido sencillo analizar cómo se podían incorporar los distintos estados de los fotones o electrones (las partículas esenciales que se usan en lugar de chips) dentro de un equipo que funcionara con precisión. Tampoco ha sido sencillo entender los mecanismos de superposición (esto es, cuando dos cúbits -la unidad de medida en este nuevo mundo, el equivalente hiperdesarrollado del bit convencional- presentan el mismo estado, multiplicando su capacidad de procesamiento) y de entrelazamiento (de modo que dos o más cúbits estén conectados entre sí). Pero el sueño de una nueva generación de computación podía más que las dificultades del camino. Pensemos sin más que un procesador actual funciona a unos 10 teraflops (equivalente a un billón de operaciones de cálculo por segundo), potencia que se puede lograr con un ordenador cuántico de sólo 30 cúbits.
En medio de toda esta arena de cúbits, ciencia futurista y toques de ficción, aparece IBM. El Gigante Azul tiene una dilatada trayectoria de anticiparse a las principales revoluciones de la tecnología y, en este ocasión, parece no querer romper con la tradición. Esta compañía fue la primera en ver el potencial del ordenador personal (y también la primera en predecir su muerte). También fue la primera en introducirse en la inteligencia artificial de lleno y, ahora, también es la primera en contar con un computador cuántico universal de nada menos que 50 cúbits.
"Estamos ante uno de los momentos clave en la historia, el del despegue de la computación cuántica práctica", presume Arvind Krishna, máximo responsable de IBM Research, durante Think 2018, el evento anual de la multinacional. "Ahora tenemos un prototipo de dos elevado a 50, pero imaginate cuando logremos computadoras en una base de dos elevado a 200. Eso significará que ese ordenador tendrá más estados computacionales que partículas existen en el universo".
La evolución de los prototipos de la firma, apodados IBM Q, es el vivo reflejo de la propia vida de los sistemas cuánticos. Hace dos años, la multinacional presentó su primer equipo cuántico con cinco cúbits. Un año después, hizo lo propio con uno de 16 cúbits, seguido seis meses después por otro de 20 cúbits de capacidad.
En este tiempo, el Gigante Azul también ha abierto a la comunidad su potencia de procesamiento cuántico, a través de un servicio de experimentación en la nube que permite componer, programar y configurar los sistemas IBM Q de 5 y 20 cúbits de una manera tan intuitiva que hasta un niño podría hacerlo. "Disponemos los cinco cúbits en forma de pentagrama musical, de modo que puedes arrastrar y soltar los procesos en en lugar adecuado, estableciendo las superposiciones o las relaciones entre elementos", añade Talia Gershon, responsable de este programa comunitario. Hasta el momento, 75.000 personas han ejecutado tres millones de experimentos con base cuántica.
"La magia de la computación cuántica está en poder superar los dos planos normales, el uno y el cero, de la informática", contribuye Chow. Por el momento, el sistema de IBM emplea circuitos superconductores con base de silicio, integrados dentro de un tanque refrigerador para mantenerlo por debajo de la temperatura existente en el espacio exterior (a la que florecen las capacidades milagrosas) y para evitar vibraciones o interacciones mecánicas.
Posibilidades infinitas
Después de todo esto, quizás se pregunten para qué queremos tanta potencia de procesamiento o si va a resolver algún problema que no pudiéramos hacer con la tecnología actual. "Vamos a abordar temas complejos que hasta ahora eran imposibles de resolver. Por ejemplo, podremos hacer simulaciones más rápidas y precisas de nuevos materiales o medicamentos, de cientos de años a apenas horas. También veremos ordenadores que podrán ellos solos analizar el riesgo de sus clientes en milésimas de segundo", añade Krishna.
Tal es el alcance de esta revolución que compañías como Samsung, Honda, Barclays, Daimler o universidades como la de Oxford o el MIT ya están haciendo sus pinitos en estas lides usando la tecnología cuántica de IBM.
Los otros contendientes la computación cuántica.
Cuatro son los grandes nombres a tener en cuenta en la revolución de la era cuántica: IBM, Google, Intel y Rigetti. Todas ellas pretenden tener equipos de entre 150 y 300 cúbits para final de este mismo año, aunque lo cierto es que los más destacados en estas lides siguen siendo IBM (50 cúbits) y Google (72 cúbits). "Pero un ordenador tiene que ser capaz de hacer operaciones arbitrarias, ser universal. Eso por ahora solo puede hacerlo el IBM Q", asegura Koehei Itoh, investigador de la Keio University.