"La computación cuántica nos dará el poder de llevar a cabo cálculos mucho mayores de los que hemos alcanzado hasta la fecha". El autor de estas palabras no es otro que Ignacio Cirac, el investigador español que está considerado el padre mismo de esta tecnología y eterno candidato al premio Nobel. En entrevista con este mismo medio, Cirac hablaba de avances ilusionantes en materias como los materiales, la biomedicina, la optimización y el análisis de grandes volúmenes de datos.
Tanto es así que la computación cuántica figura ya en la agenda de los principales analistas del mundo. Las estimaciones más recientes hablan de que, para 2026, el mercado asociado a esta tecnología alcanzará los 26.450 millones de dólares, según un informe de Research and Markets.
Sin embargo, toda esta revolución anunciada está pendiente de superar varios obstáculos de dimensiones igualmente épicas. Por un lado, el enorme coste de estos equipos. Por otro, conseguir que estos sistemas sean coherentes y presenten una tasa de errores aceptable.
[La computación cuántica, ante el reto de ser escalable]
El problema de la coherencia
Pongámonos en antecedentes. En la computación clásica, los bits tradicionales existen en estados definidos de 0 o 1. En cambio, en la computación cuántica, los cúbits pueden estar en estados de superposición, lo que les permite representar simultáneamente ambos estados de 0 y 1. Este fenómeno es fundamental para el poder de esta tecnología, ya que permite la realización de cálculos exponencialmente más rápidos que los sistemas clásicos.
Sin embargo, mantener la coherencia cuántica es increíblemente delicado. Los cúbits son susceptibles a interferencias externas, como fluctuaciones de temperatura o campos electromagnéticos, que pueden hacer que pierdan su estado cuántico y colapsen en un estado clásico. Este fenómeno, conocido como "decoherencia", es uno de los mayores obstáculos para la construcción de computadores cuánticos prácticas y escalables.
[Los dos españoles que aterrizan la computación cuántica para que sea real: Darío Gil y Mikel Díez]
La decoherencia limita la cantidad de operaciones que se pueden realizar antes de que los resultados de la computación cuántica se vuelvan inexactos. Por ejemplo, en el algoritmo de factorización de números enteros de Shor, que se considera uno de los algoritmos más prometedores para desafiar la criptografía actual, la decoherencia podría hacer que el resultado final sea incorrecto.
Además, la decoherencia dificulta la construcción de circuitos cuánticos complejos y la ejecución de algoritmos de manera confiable. Los errores introducidos por la decoherencia pueden propagarse a lo largo de los cálculos, comprometiendo la integridad de los resultados.
Investigadores de todo el mundo están trabajando en diversas estrategias para mitigar los efectos de la decoherencia y mantener la coherencia cuántica durante períodos de tiempo más largos. Principalmente hablamos de software para la corrección de errores, diseños de cúbits más robustos mediantes iones atrapados y cúbits de estado sólido y el control y supresión de las interferencias externas.
IBM, por ejemplo, ha diseñado acopladores de corto y largo alcance para sus computadores cuánticos, los cuales permiten configuraciones flexibles y robustas de cúbits que son esenciales para implementar códigos de corrección de errores a gran escala. Estos acopladores permiten a los cúbits interactuar con una precisión inédita, reduciendo así el ruido y mejorando la coherencia de los cúbits. En ese sentido, su ordenador Quantum Heron se jacta de lograr tasas de error de tan solo 0.3 a 0.4%, una mejora de cuatro a cinco veces respecto a los dispositivos previos.
El 'kitmon', ¿la solución mágica?
En este camino, surge una aproximación distinta: construir un nuevo tipo de cúbit que no presente este tipo de errores de coherencia. De nombre 'kitmon', podría ser la solución mágica a todos los problemas de la computación cuántica.
En ello creen al menos desde un potente grupo de investigación financiado por la Comisión Europea con 4,7 millones de euros en los próximos cuatro años y en el que participa el Instituto de Ciencia y Materiales de Madrid del CSIC. Hablamos de un cúbit híbrido entre plataformas superconductoras y semiconductoras, de forma que se aprovechará el conocimiento y técnicas ya desarrolladas para los cúbits superconductores, pero se les eliminarán las fuentes más dominantes de errores.
"Vamos a crear un cúbit desde un concepto diferente", explica Ramón Aguado, investigador del ICMM-CSIC que participa en el proyecto. "Sus estados serán inmunes a la mayoría de los mecanismos de decoherencia que actualmente limitan el ordenador cuántico".
Aguado reconoce que el nuevo cúbit no estará completamente protegido, sí será un primer paso muy importante. Además, destaca que no tendrá dificultad para ser escalable, al estar basado en materiales semiconductores.
"Partimos de un sistema experimental en el que ya se ha demostrado que dos puntos cuánticos acoplados a través de un superconductor simulan a la perfección una cadena de Kitaev, un modelo mínimo para conseguir estados topológicos. Esta cadena se combinará a su vez en una unión Josephson con un circuito superconductor de tipo 'transmon', con el que puede implementar un tipo de cúbit que está diseñado para tener una sensibilidad reducida al ruido de carga. La unión de ambos dará lugar al 'kitmon'", detalla el científico.
En el consorcio internacional participan además la Universidad de Delft (TU Delf), el IOM Materials Foundry del Centro Nacional de Investigación Italiano (CNR), el Instituto de Ciencia y Tecnología de Austria (ISTA), el Energiatudomanyi Kutatokozpont (EK), y la Universidad de Augsburg, así como la empresa Orange Quantum Systems.
El punto de partida será una plataforma bidimensional híbrida superconductora-semiconductora de última generación desarrollada por la OIM. Posteriormente, TU Delft, ISTA, EK, ICMM-CSIC y la Universidad de Augsburgo realizarán la cadena Kitaev y la incorporarán a una arquitectura Kitmon. Finalmente, Orange QS se asegurará de que los cúbits de 'kitmon' puedan controlarse y probarse con un sistema de hardware-software bien integrado.
Computación cuántica, de Feynman a hoy
Hace ya más de 30 años, un tal Richard Feynman planteaba los principios de la mecánica y la electrodinámica cuántica. En aquel momento, sus ideas se entendieron inmediatamente como una gran revolución en la física y en la comunidad científica en su conjunto.
Sin embargo, pocos podían imaginar que estaríamos hablando de estos conceptos de manera tan frecuente y omnipresente hoy en día. Un fenómeno que tiene su máxima expresión en el particular despertar vivido por la computación cuántica.
Un breve recordatorio antes de entrar en materia. Cuando hablamos de computación cuántica, nos referimos a aquellos ordenadores en que se incorporan los distintos estados de los fotones o electrones (las partículas esenciales que se usan en lugar de chips) dentro de un equipo que funcionara con precisión.
Dicho de otro modo: estamos ante máquinas que funcionan por superposición (esto es, cuando dos cúbits -la unidad de medida en este nuevo mundo, el equivalente hiperdesarrollado del bit convencional- presentan los dos valores de forma simultánea, multiplicando su capacidad de procesamiento) y entrelazamiento (de modo que dos o más cúbits estén conectados entre sí).
IBM, Google, Intel, Alibaba, Tencent, D-Wave y Rigetti fueron los primeros nombres que se lanzaron a la arena de la computación cuántica con sus equipos (después de las universidades y centros como el Max Planck europeo).