Connect with us

Publicado

on

Introducción

En mayo de 2025, un equipo de la Universidad de Shanghái, liderado por el profesor Wang Chao, logró un hito en computación cuántica al factorizar una clave RSA de 90 bits utilizando el D-Wave Advantage, un ordenador cuántico basado en recocido cuántico con 5760 qubits físicos [Wang et al., 2025]. Publicado en la Chinese Journal of Computers bajo el título «Quantum Annealing Public Key Cryptographic Attack Algorithm Based on D-Wave Advantage», este experimento demuestra el potencial de los sistemas cuánticos para desafiar la criptografía de clave pública [South China Morning Post, 2025]. Sin embargo, la distinción entre qubits físicos y qubits lógicos es crucial para entender las limitaciones de este avance y su impacto en la seguridad criptográfica. Aunque el «Q-Day» (el momento en que los ordenadores cuánticos rompan sistemas como RSA-2048) está lejos, la necesidad de desarrollar algoritmos post-cuánticos desde hoy es urgente para proteger datos sensibles frente a futuros avances cuánticos [NIST, 2024].

El Logro de la Universidad de Shanghái

Contexto Técnico

El algoritmo RSA se basa en la dificultad de factorizar números grandes (producto de dos primos) en ordenadores clásicos. Por ejemplo, factorizar una clave RSA de 2048 bits es inviable con hardware clásico, requiriendo miles de años [CSO Online, 2024]. En contraste, el algoritmo de Shor, ejecutado en un ordenador cuántico universal con suficientes qubits lógicos, podría resolver este problema en tiempo polinómico [IBM, 2024]. El experimento de Shanghái no utilizó el algoritmo de Shor, sino que reformuló la factorización como un problema de optimización resoluble por el D-Wave Advantage, un sistema de recocido cuántico con 5760 qubits físicos [D-Wave Systems, 2025].

Metodología

El equipo empleó dos enfoques técnicos [Wang et al., 2025]:

  1. Optimización QUBO: La factorización se transformó en un problema de Quadratic Unconstrained Binary Optimization (QUBO), mapeado en el paisaje energético del D-Wave Advantage. Esto permitió factorizar un entero de 22 bits (2,269,753), superando resultados previos de laboratorios como Google y MIT.
  2. Problema del Vector Más Cercano (CVP): Combinando recocido cuántico con algoritmos clásicos, como la técnica de redondeo de Babai y el algoritmo de firma de Schnorr, el equipo factorizó un entero de 50 bits y luego uno de 90 bits, rompiendo el límite previo de 80 bits [South China Morning Post, 2025].

Este logro, aunque significativo, no amenaza las claves RSA de 2048 bits debido a la escalada exponencial de la complejidad computacional [CSO Online, 2024].

Hardware: D-Wave Advantage

El D-Wave Advantage, desarrollado por D-Wave Systems, cuenta con 5760 qubits físicos organizados en una topología Pegasus, con hasta 15 conexiones por qubit [D-Wave Systems, 2025]. Este sistema utiliza recocido cuántico para resolver problemas de optimización al buscar el estado de mínima energía. A diferencia de los ordenadores cuánticos basados en puertas (gate-based), como los de IBM o Google, no es universal y está optimizado para problemas específicos, como los abordados en el experimento de Shanghái. Su diseño híbrido cuántico-clásico requirió un preprocesamiento y postprocesamiento clásico significativo [Wang et al., 2025].

Qubits Físicos vs. Qubits Lógicos

La distinción entre qubits físicos y qubits lógicos es fundamental para evaluar el impacto del D-Wave Advantage y otros ordenadores cuánticos:

  • Qubits Físicos: Son las unidades físicas de información cuántica implementadas en hardware (por ejemplo, circuitos superconductores, iones atrapados o átomos neutros). El D-Wave Advantage tiene 5760 qubits físicos, pero estos son propensos a errores debido a la decoherencia y el ruido ambiental [D-Wave Systems, 2025]. En el caso del D-Wave, estos qubits son efectivos para problemas de optimización, pero no para computación universal.
  • Qubits Lógicos: Son qubits efectivos tras aplicar corrección de errores cuánticos (por ejemplo, códigos de superficie o de Shor), que requieren múltiples qubits físicos por qubit lógico para garantizar cálculos fiables. En sistemas NISQ (Noisy Intermediate-Scale Quantum), como los actuales, la falta de corrección robusta significa que los qubits lógicos son escasos o inexistentes. Para el D-Wave Advantage, no hay qubits lógicos, ya que el recocido cuántico no implementa corrección de errores avanzada, dado que su arquitectura es tolerante al ruido para aplicaciones específicas [IBM, 2024].
  • Requisitos para Computación Universal: Romper RSA-2048 con el algoritmo de Shor requiere ~3 millones de qubits físicos para producir suficientes qubits lógicos con corrección de errores, según estimaciones para sistemas de iones atrapados [NIST, 2024]. Los 5760 qubits físicos del D-Wave Advantage, sin corrección de errores, no son adecuados para este propósito.

Esta distinción explica por qué el avance de Shanghái, aunque notable, está lejos de comprometer la criptografía moderna [CSO Online, 2024].

Implicaciones para la Criptografía

El experimento no pone en riesgo inmediato sistemas como RSA-2048 o AES-256, pero tiene implicaciones críticas:

  • Limitaciones del Avance: Factorizar 90 bits es un logro, pero las claves de 2048 bits son órdenes de magnitud más difíciles. La complejidad crece exponencialmente, y el D-Wave Advantage, con sus 5760 qubits físicos y cero qubits lógicos, no puede abordar problemas de esta escala [South China Morning Post, 2025].
  • Proximidad al «Q-Day»: El «Q-Day» requiere un ordenador cuántico universal con millones de qubits físicos y corrección de errores avanzada. El NIST estima que esto podría ocurrir en 15-30 años (2040-2055) [NIST, 2024]. El experimento de Shanghái, basado en recocido cuántico, no altera significativamente esta línea temporal.
  • Riesgo de «Cosecha Ahora, Descifra Después»: Los datos cifrados hoy podrían ser recolectados y descifrados en el futuro, lo que afecta a información sensible a largo plazo (médica, gubernamental) [CSO Online, 2024].

Urgencia de Algoritmos Post-Cuánticos

Aunque el «Q-Day» está lejos, la transición a algoritmos post-cuánticos debe comenzar hoy:

  • Desarrollo Prolongado: Algoritmos como CRYSTALS-Kyber, CRYSTALS-Dilithium, FALCON y SPHINCS+, estandarizados por el NIST en 2024, requieren años para diseñarse, probarse e implementarse. La «crypto-agility» es crucial para actualizaciones rápidas [NIST, 2024].
  • Protección de Datos: Datos sensibles deben protegerse contra ataques futuros. Empresas como Apple, con PQ3 en iMessage, y gobiernos están adoptando soluciones post-cuánticas [CSO Online, 2024].
  • Iniciativas Actuales: China lidera en redes de Distribución de Claves Cuánticas (QKD) con más de 4600 km, garantizando comunicaciones seguras basadas en principios cuánticos [South China Morning Post, 2025].

Conclusión

El logro de la Universidad de Shanghái con el D-Wave Advantage, que utiliza 5760 qubits físicos pero cero qubits lógicos, demuestra el potencial del recocido cuántico para abordar problemas criptográficos como la factorización de RSA de 90 bits [Wang et al., 2025]. Sin embargo, la falta de corrección de errores y la naturaleza no universal de su arquitectura limitan su impacto en la criptografía moderna. Los sistemas como RSA-2048 siguen siendo seguros, pero el avance subraya la necesidad de actuar desde hoy para desarrollar e implementar algoritmos post-cuánticos [NIST, 2024]. La distinción entre qubits físicos y lógicos es clave: mientras los ordenadores cuánticos actuales tienen miles de qubits físicos, los millones de qubits lógicos necesarios para el «Q-Day» están a décadas de distancia. La preparación inmediata es esencial para garantizar un futuro digital seguro.

Fuentes

  • Wang, C., et al. (2025). «Quantum Annealing Public Key Cryptographic Attack Algorithm Based on D-Wave Advantage.» Chinese Journal of Computers. Disponible en: journal.cjcomp.org.
  • D-Wave Systems. (2025). «D-Wave Advantage System Overview.» Disponible en: dwave-sys.com.
  • South China Morning Post. (2025). «China cracks another quantum code barrier.» Disponible en: scmp.com.
  • CSO Online. (2024). «Chinese researchers break RSA encryption with a quantum computer.» Disponible en: csoonline.com.
  • NIST. (2024). «NIST Releases First 3 Finalized Post-Quantum Encryption Standards.» Disponible en: nist.gov.
  • IBM. (2024). «Quantum Error Correction.» Disponible en: ibm.com.

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Actualidad

Magnones con vida 100x más larga abren la puerta a computadoras cuánticas del tamaño de una moneda

Publicado

on

Los magnones, hasta ahora limitados por tiempos de vida demasiado cortos, acaban de superar su mayor obstáculo. Con vidas 100 veces más largas, estos portadores de información cuántica podrían transformar computadoras del tamaño de una habitación en dispositivos que caben en la palma de la mano. Lo más revelador: el límite no era física fundamental, sino pureza de materiales — lo que significa que el progreso de aquí en adelante es solo cuestión de ingeniería.

¿Qué son los magnones?

Los magnones son pequeñas ondas de magnetización que viajan a través de materiales magnéticos sólidos, similar a las ondas que se forman en un estanque cuando cae una piedra. A diferencia de los fotones, que viajan por el vacío o la fibra óptica, los magnones se propagan dentro de un sólido magnético. Phys.org

Sus longitudes de onda pueden reducirse a escala nanométrica, lo que significa que circuitos magnónicos podrían caber en un chip no más grande que los de los smartphones actuales. Además, al ser una excitación de un sólido, un magnón se acopla naturalmente a muchas otras cuasi-partículas —fonones, fotones y otras— convirtiéndolo en un bloque de construcción ideal para sistemas cuánticos híbridos. Phys.org


¿Cuál era el problema?

El principal obstáculo era que el «tiempo de vida» de los magnones —el período durante el cual pueden transportar información cuántica de manera confiable— estaba limitado a apenas unos pocos cientos de nanosegundos. Demasiado corto para cualquier computación cuántica práctica. Newswise


¿Qué lograron?

Un equipo internacional de físicos liderado por Andrii Chumak de la Universidad de Viena logró extender este tiempo de vida casi cien veces, hasta 18 microsegundos, abriendo el camino hacia una computadora cuántica del tamaño de una moneda de 1 centavo. Newswise

¿Cómo lo hicieron? La clave fue combinar dos ideas: primero, en lugar de usar magnones convencionales uniformes, excitaron magnones de longitud de onda corta, que son inherentemente insensibles a los defectos superficiales del cristal. Segundo, enfriaron esferas ultrapuras de granate de itrio-hierro (YIG) en un criostato a tan solo 30 milikelvin — una fracción de grado por encima del cero absoluto. Quantum Zeitgeist


El descubrimiento más importante

Los investigadores descubrieron que el límite del tiempo de vida de los magnones no está regido por ninguna ley fundamental de la física, sino que es una cuestión de la pureza de los materiales utilizados. «Incluso la muestra menos pura superó todos los récords anteriores», lo que indica que mejoras adicionales son alcanzables a través de avances en ciencia de materiales. Quantum Zeitgeist

Esto es enorme: significa que el camino está abierto y que es un problema de ingeniería, no de física teórica.


¿Para qué sirve esto?

Con tiempos de vida de 18 microsegundos, los magnones se transforman en portadores robustos de memoria cuántica y enlaces de comunicación de baja pérdida en un chip. Podrían conectar cientos de qubits a lo largo de una ruta compartida — un «bus cuántico» largamente esperado que sería el eslabón faltante para computadoras cuánticas escalables. Mirage News

Dado que los magnones residen en un estado sólido y se acoplan a muchos sistemas cuánticos diferentes, podrían actuar como «traductores universales» en arquitecturas cuánticas híbridas, conectando tecnologías que antes no podían interactuar. Mirage News


En resumen

AntesAhora
Tiempo de vida~cientos de nanosegundos18 microsegundos
Mejora~100x
LimitanteCreían que era física fundamentalEs pureza del material
PublicadoScience Advances, hoy 4/5/2026

Es un avance significativo porque desbloquea una tecnología que prometía mucho pero estaba frenada por este problema práctico. La implicación más emocionante: computadoras cuánticas que podrían ser del tamaño de una moneda.

Continue Reading

QC

Científicos noruegos logran rastrear la pérdida de datos en qubits más de 100 veces más rápido

Publicado

on

Un equipo internacional liderado por la Norwegian University of Science and Technology (NTNU) y el Instituto Niels Bohr de Copenhague desarrolló un método de medición que reduce de ~1 segundo a solo ~10 milisegundos el tiempo necesario para medir la relajación de qubits superconductores, permitiendo el monitoreo casi en tiempo real de uno de los fenómenos más limitantes en la computación cuántica: la decoherencia.

Publicado en Physical Review X · DOI: 10.1103/gk1b-stl3 · Abril 2026


El problema: información que desaparece sin aviso

Los computadores cuánticos tienen un talón de Aquiles que frena su desarrollo: los qubits, las unidades básicas de información cuántica, pierden sus datos con asombrosa rapidez. Este fenómeno, conocido como decoherencia, ocurre cuando el sistema cuántico interactúa con su entorno y colapsa desde su estado cuántico a uno clásico, destruyendo la información que almacenaba.

En los qubits superconductores —la arquitectura usada por laboratorios e industrias de vanguardia en todo el mundo— el problema se agrava porque la pérdida de información no es constante ni predecible. El parámetro clave que los físicos miden para cuantificar este fenómeno es el llamado T₁ o tiempo de relajación: el intervalo durante el cual el qubit conserva su estado energético antes de colapsar.

«En los qubits superconductores, el tiempo que tarda la información en desaparecer es, en promedio, razonable. Pero parece variar aleatoriamente a lo largo del tiempo», explicó el Prof. Jeroen Danon, del Departamento de Física de la NTNU, investigador principal del trabajo. «Es absolutamente necesario resolver este problema para lograr que los computadores cuánticos operen de forma más estable.»

El inconveniente de fondo era que medir ese T₁ tomaba alrededor de un segundo completo —una eternidad en la escala de la computación cuántica—, lo que impedía ver las fluctuaciones rápidas que realmente limitan el rendimiento de los procesadores cuánticos actuales.


El avance: rastreo adaptativo en tiempo casi real

El equipo publicó su solución en enero de 2026 en la revista Physical Review X, bajo el título «Real-Time Adaptive Tracking of Fluctuating Relaxation Rates in Superconducting Qubits». El nuevo método reduce el tiempo de medición de T₁ de aproximadamente 1 segundo a solo 10 milisegundos: más de 100 veces más rápido.

«Logramos hacerlo en aproximadamente 10 milisegundos, es decir, más de 100 veces más rápido. Y más o menos en tiempo real», afirmó Danon.

La clave del método es su naturaleza adaptativa: el algoritmo ajusta dinámicamente su estrategia de medición según los datos que va recibiendo en tiempo real, concentrando los recursos computacionales en los momentos más informativos. Esto permite por primera vez observar cómo varía T₁ mientras ocurre, revelando fluctuaciones rápidas que antes eran completamente invisibles para los investigadores.


Por qué importa verlo en tiempo real

La capacidad de monitorear la decoherencia en tiempo casi real no es solo un logro técnico: tiene consecuencias prácticas directas para el futuro de la computación cuántica.

Primero, en diagnóstico de errores: al correlacionar las caídas de T₁ con eventos físicos específicos —como la presencia de defectos atómicos llamados sistemas de dos niveles (TLS) cerca del qubit— es posible identificar con precisión qué está causando la inestabilidad.

Segundo, en calibración dinámica: los procesadores cuánticos actuales requieren recalibraciones frecuentes y programadas. El nuevo método abre la puerta a ajustes en tiempo real.

Tercero, y quizás más importante a largo plazo, en corrección de errores cuánticos: los esquemas de corrección deben adaptarse a la tasa de error actual del sistema. Conocer T₁ casi en directo hace posibles estrategias de corrección más eficientes.

Según los propios autores, los hallazgos cambian la manera en que deberían calibrarse y probarse los procesadores cuánticos, y permiten aprender más sobre los procesos microscópicos que hoy limitan el rendimiento de estas máquinas.


Colaboración nórdica al frente de la física cuántica

La investigación fue liderada experimentalmente desde el Instituto Niels Bohr de la Universidad de Copenhague, donde se encuentra el laboratorio de temperatura ultrabaja en el que se realizaron las pruebas. La NTNU aportó el desarrollo teórico y algorítmico, mientras que el Instituto de Tecnología Chalmers de Gotemburgo, Suecia, contribuyó con expertise en fabricación y caracterización de qubits.

La colaboración reunió a 20 investigadores de tres países:

Fabrizio Berritta, Jacob Benestad, Jan A. Krzywda, Oswin Krause, Malthe A. Marciniak, Svend Krøjer, Christopher W. Warren, Emil Hogedal, Andreas Nylander, Irshad Ahmad, Amr Osman, Janka Biznárová, Marcus Rommel, Anita Fadavi Roudsari, Jonas Bylander, Giovanna Tancredi, Jeroen Danon, Jacob Hastrup, Ferdinand Kuemmeth y Morten Kjaergaard.


Fuentes

Continue Reading

QC

La Amenaza Cuántica a la Ciberseguridad

Publicado

on


El Momento en que Todo Cambió: 30 de Marzo de 2026

En el transcurso de un solo día, dos papers científicos publicados casi simultáneamente redifinieron el horizonte de amenaza del cómputo cuántico para la ciberseguridad global. No fue un anuncio político ni una advertencia especulativa: fueron cálculos técnicos concretos firmados por algunos de los investigadores más influyentes del campo.

El primero llegó de Google Quantum AI: un white paper de 57 páginas titulado «Securing Elliptic Curve Cryptocurrencies against Quantum Vulnerabilities: Resource Estimates and Mitigations», coautorado por Ryan Babbush (Director de Investigación en Algoritmos Cuánticos), Craig Gidney, Hartmut Neven (VP de Ingeniería), Justin Drake de la Fundación Ethereum y Dan Boneh de Stanford. El segundo provino de un equipo de Oratomic —una startup de Pasadena, California—, junto con investigadores de Caltech, Harvard y UC Berkeley, encabezado por Madelyn Cain y John Preskill.

Juntos, estos dos documentos comprimen décadas de suposiciones de seguridad en una pregunta urgente: ¿cuánto tiempo queda realmente?


El Cifrado que Protege Internet: Qué es ECC y por qué importa

Para entender la magnitud del problema, hay que entender qué se está poniendo en riesgo.

La criptografía de curva elíptica (ECC, por sus siglas en inglés) es el sistema matemático que protege la mayor parte de las comunicaciones digitales modernas. Está detrás de cada conexión HTTPS que abre un navegador, de cada firma digital en un contrato electrónico, de cada transacción en Bitcoin o Ethereum, y de una fracción enorme de los sistemas de autenticación empresarial y gubernamental. Su seguridad descansa en un problema matemático llamado logaritmo discreto en curvas elípticas (ECDLP): calcular una clave privada a partir de su clave pública requiere, en una computadora clásica, un tiempo astronomicamente largo —del orden de miles de millones de años incluso con el hardware más avanzado.

Esa dificultad no es accidental: es el fundamento sobre el que se construyó la confianza digital de las últimas tres décadas. Y es exactamente lo que el algoritmo de Shor, ejecutado en una computadora cuántica suficientemente poderosa, puede destruir en minutos.


El Algoritmo de Shor: La Espada Cuántica

El algoritmo de Shor, formulado por Peter Shor en 1994, demostró matemáticamente que una computadora cuántica puede resolver tanto la factorización de números enteros grandes (base de RSA) como el problema del logaritmo discreto en curvas elípticas (base de ECC) en tiempo polinomial —es decir, en un tiempo que crece de manera manejable con el tamaño del problema, en lugar de crecer de forma exponencial como con las computadoras clásicas.

El problema es que ejecutar el algoritmo de Shor a escala criptográfica requiere qubits —las unidades de información cuántica— que sean no solo numerosos, sino también confiables, estables y corregibles frente a errores. Y durante años, las estimaciones de cuántos qubits harían falta para romper ECC o RSA apuntaban a números enormes: decenas de millones de qubits físicos.

Lo que los papers de marzo de 2026 cambiaron fue precisamente esa estimación.


Los Números que Sacudieron al Mundo

Lo que decía el consenso anterior

Hasta 2023, la referencia técnica dominante establecía que romper ECC-256 —la variante usada por Bitcoin y la mayoría de sistemas web— requería aproximadamente 9 millones de qubits físicos. Para RSA-2048, la cifra rondaba los 20 millones. Estas eran cifras que hacían que la amenaza pareciera lejana: la mayor computadora cuántica existente en 2025 tenía poco más de un centenar de qubits lógicos verificables.

Lo que Google demostró en marzo de 2026

El white paper de Google Quantum AI presentó dos circuitos cuánticos compilados que implementan el algoritmo de Shor contra ECDLP-256:

  • Circuito 1: menos de 1.200 qubits lógicos y 90 millones de operaciones Toffoli.
  • Circuito 2: menos de 1.450 qubits lógicos y 70 millones de operaciones Toffoli.

Traducido a hardware físico superconductor —el tipo que Google usa en sus chips Willow y sucesores— los investigadores estimaron que estos circuitos pueden ejecutarse con menos de 500.000 qubits físicos en cuestión de minutos. Eso es una reducción de casi 20 veces respecto a las estimaciones previas de 9 millones.

Para ilustrar la escala del cambio: en 2012, las estimaciones para ejecutar el algoritmo de Shor rondaban los mil millones de qubits físicos. En 2023, bajaron a 9 millones. En 2026, Google los coloca por debajo de 500.000. La tendencia no es lineal: es una compresión acelerada, y el propio paper de Oratomic incluye una gráfica que muestra esa trayectoria. Invertida, tiene la forma de una curva exponencial.

Lo que Oratomic aportó con una arquitectura diferente

El paper paralelo de Oratomic, Caltech, Harvard y UC Berkeley atacó el mismo problema pero desde una arquitectura distinta: computadoras cuánticas de átomos neutros, donde en lugar de circuitos superconductores enfriados casi al cero absoluto, los qubits son átomos individuales atrapados con pinzas láser y reconfigurados dinámicamente durante el cálculo.

Esta arquitectura tiene ventajas de conectividad que permiten códigos de corrección de errores más eficientes. El resultado más llamativo del paper es que, en la configuración más compacta, el algoritmo de Shor para ECC-256 podría ejecutarse con apenas 10.000 qubits reconfigurables. Las versiones más realistas y eficientes en tiempo apuntan a entre 19.000 y 26.000 qubits físicos, con tiempos de ejecución de entre 10 y 52 días.

La comparación es reveladora: mientras Google estima 500.000 qubits superconductores en minutos, Oratomic plantea 26.000 qubits de átomos neutros en días. Dos arquitecturas, dos métricas, una misma conclusión: la barrera es mucho más baja de lo que se creía.


El Paper Matemático que Abrió la Puerta

Un detalle técnico poco cubierto fuera de la comunidad especializada es que las reducciones de Google no surgieron de la nada. Se apoyan en un trabajo matemático anterior: el algoritmo de Chevignard, Fouque y Schrottenloher, que en 2024 desarrolló una técnica para reducir el número de qubits en el problema del logaritmo discreto en curvas elípticas.

Aplicado a la curva P-256, ese algoritmo reduce los qubits lógicos necesarios a 1.193 (y a 1.098 para P-224). Por comparación, el estado del arte anterior de Häner et al. requería 2.124 qubits lógicos para P-256. En términos prácticos, esto significa que romper ECC-256 ahora requiere 42% menos qubits lógicos que romper RSA con seguridad clásicamente equivalente —una ironía particular, dado que muchas organizaciones migraron de RSA a ECC precisamente porque ECC era más «eficiente».


La Reacción de la Industria: Cuatro Eventos en Ocho Días

Lo que hizo que la semana del 25 de marzo de 2026 fuera histórica no fue solo la publicación de los papers: fue la cadencia coordinada de respuestas institucionales.

  • 24 de marzo: Google anuncia su entrada en la plataforma de átomos neutros para computación cuántica.
  • 25 de marzo: Google fija el año 2029 como fecha límite para completar su migración a criptografía post-cuántica en todos sus productos y servicios.
  • 30 de marzo: Oratomic publica el preprint con la estimación de 10.000 qubits en átomos neutros.
  • 31 de marzo: Google Quantum AI publica el white paper con las estimaciones de ECDLP.
  • 2 de abril: Nature publica una nota de su redactor Davide Castelvecchi titulada «It’s a real shock»: quantum-computing breakthroughs pose imminent risks to cybersecurity, describiendo los dos papers y sus implicaciones.
  • 7 de abril: Cloudflare —que procesa aproximadamente el 20% de todo el tráfico web del planeta— anuncia que acelera su propia hoja de ruta post-cuántica y también apunta a 2029, citando explícitamente los papers de Google y Oratomic como catalizadores del cambio de plazo.

La coordinación es difícil de ignorar. Google publicó su estimación de recursos el mismo mes en que fijó su deadline interno. Cuando la organización que construye el hardware publica estimaciones técnicas tan específicas sobre su propia arquitectura y luego fija una fecha concreta de migración, la señal es inequívoca.


¿Qué tan Cerca Estamos Realmente? El Debate sobre los Plazos

La respuesta honesta es: más cerca que antes, pero aún con incertidumbre significativa.

La computadora cuántica más grande con qubits lógicos verificables a comienzos de 2026 era la de QuEra Computing, con 96 qubits lógicos. Para romper ECC-256 se necesitan, según las estimaciones actuales, al menos 1.200 qubits lógicos. La brecha sigue siendo real, pero la trayectoria importa: en 2019, Google demostró «supremacía cuántica» con 53 qubits físicos ruidosos; hoy ya existen sistemas con miles. El ritmo de mejora en corrección de errores, en densidad de qubits y en eficiencia algorítmica es sostenido.

La mayoría de los expertos consultados por Nature y otras publicaciones especializadas ubican la llegada de una computadora cuántica criptográficamente relevante (CRQC, por sus siglas en inglés) entre mediados de la década de 2030 y mediados de la de 2040, aunque algunos analistas más conservadores extienden esa ventana hasta 2050. Google, al fijar 2029 como su propio plazo de migración, está siendo más precautorio que predictivo: no está afirmando que la CRQC llegará en 2029, sino que para entonces su infraestructura ya debe estar protegida.

El paper de Google incluyó una advertencia que se volvió ampliamente citada: «Es concebible que la existencia de las primeras CRQCs sea detectada en la blockchain antes de ser anunciada.» Es decir, podría no haber aviso previo.


El Problema Silencioso de Hoy: «Cosecha Ahora, Descifra Después»

Independientemente de cuándo llegue la CRQC, hay una amenaza activa que no requiere esperar: el ataque conocido como Harvest Now, Decrypt Later (HNDL), o «cosecha ahora, descifra después».

La lógica es simple y brutal. Actores estatales —y posiblemente grupos criminales bien financiados— están interceptando y almacenando comunicaciones cifradas hoy mismo. No pueden leerlas ahora. Pero cuando una computadora cuántica suficientemente poderosa esté disponible, podrán descifrar retroactivamente toda esa información acumulada.

Esto convierte datos que hoy parecen seguros en vulnerabilidades temporales. Un cable diplomático interceptado en 2026 puede seguir siendo estratégicamente valioso en 2036. Un historial médico robado hoy puede usarse para fraude o chantaje dentro de una década. Una negociación corporativa capturada este año puede proveer inteligencia competitiva después de la fusión.

Las agencias de inteligencia occidentales dan por sentado que este tipo de recolección ya está ocurriendo a escala industrial. La NSA de los Estados Unidos ha exigido que los sistemas clasificados nuevos comiencen a migrar a algoritmos post-cuánticos a partir de 2027.


Los Nuevos Estándares: La Respuesta del NIST

Anticipándose a este escenario, el Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST) inició en 2016 un proceso de selección de algoritmos criptográficos resistentes a computadoras cuánticas. Después de ocho años y múltiples rondas de evaluación pública internacional, en agosto de 2024 publicó los tres primeros estándares finalizados:

FIPS 203 — ML-KEM (Module-Lattice-Based Key-Encapsulation Mechanism): basado en el algoritmo CRYSTALS-Kyber. Reemplaza a RSA y ECDH para el intercambio seguro de claves. Su seguridad se basa en la dureza del problema de aprendizaje con errores sobre retículas (lattices), una estructura matemática que las computadoras cuánticas no pueden resolver eficientemente con los algoritmos conocidos.

FIPS 204 — ML-DSA (Module-Lattice-Based Digital Signature Algorithm): basado en CRYSTALS-Dilithium. Es el reemplazo principal para firmas digitales, incluyendo las usadas en certificados TLS y autenticación.

FIPS 205 — SLH-DSA (Stateless Hash-Based Digital Signature Standard): basado en SPHINCS+. Usa funciones hash —cuya seguridad cuántica es mucho más robusta— como base para firmas digitales. Es el algoritmo de respaldo más conservador.

Un cuarto estándar, FN-DSA (basado en FALCON), está en proceso de publicación como FIPS 206. En marzo de 2025, el NIST también seleccionó HQC como algoritmo adicional de encapsulación de claves.

Un dato importante para mitigar confusiones: la criptografía post-cuántica no requiere hardware especial. Es software. Los algoritmos corren en hardware convencional. La migración es un problema de ingeniería de sistemas, no de adquisición de infraestructura exótica.


El Impacto en las Criptomonedas: Bitcoin y Ethereum en el Ojo del Huracán

Las criptomonedas representan uno de los casos más complejos y urgentes, porque a diferencia de un servidor web que puede actualizarse de manera centralizada, cambiar la criptografía de una blockchain requiere consenso de toda la red.

Bitcoin: Exposición alta, respuesta lenta

Bitcoin usa ECDSA (Elliptic Curve Digital Signature Algorithm) con la curva secp256k1 para firmar cada transacción. El problema inmediato no es que una CRQC exista hoy: es que aproximadamente 6,9 millones de bitcoins —incluyendo los de Satoshi Nakamoto y todos los gastados desde la actualización Taproot de 2021— tienen sus claves públicas permanentemente visibles en la blockchain. Una vez que una CRQC exista, esas claves serían vulnerables.

La respuesta técnica principal es BIP-360 (Bitcoin Improvement Proposal 360), también llamado Pay-to-Merkle-Root (P2MR), incorporado al repositorio oficial de BIPs el 11 de febrero de 2026. La propuesta usa una estructura de árbol de Merkle para ocultar las claves públicas post-cuánticas hasta el momento exacto del gasto, manteniendo la blockchain eficiente. Un testnet funcional implementado por BTQ Technologies procesó más de 100.000 bloques con más de 50 mineros participantes hacia finales de marzo de 2026.

La propuesta complementaria BIP-361 va más lejos: propone congelar eventualmente las monedas en direcciones vulnerables que no migren antes de cierto plazo.

El obstáculo real de Bitcoin no es técnico: es de gobernanza. Su proceso de actualización es deliberadamente lento y descentralizado. El ciclo típico para una migración completa se estima entre 5 y 10 años. Ethereum, en contraste, tiene procesos de gobernanza más ágiles y lleva una ventaja considerable.

Ethereum: Más preparado, más expuesto en capas

La Fundación Ethereum tiene un programa de resistencia cuántica formal desde 2018. En enero de 2026, formó un equipo dedicado de seguridad post-cuántica y anunció un premio de investigación de 2 millones de dólares. Vitalik Buterin publicó una hoja de ruta detallada. El plan, llamado «Strawmap», apunta a la resistencia cuántica completa para 2030 e incluye migraciones en el protocolo de consenso, las capas de ejecución y los mecanismos de staking.

Ethereum también enfrenta vulnerabilidades adicionales: sus contratos inteligentes, los mecanismos de validación del staking y los sistemas de muestreo de disponibilidad de datos son todos potencialmente vulnerables a ataques cuánticos sofisticados, algo que el white paper de Google analiza explícitamente.


La Cadena de Efectos: Más Allá de las Criptomonedas

El impacto potencial de una CRQC no se limita a las finanzas digitales. El cifrado ECC y RSA —el otro gran sistema amenazado por el algoritmo de Shor— protegen:

  • TLS/HTTPS: toda la navegación web segura.
  • Certificados digitales: la cadena de confianza que verifica que un sitio es quien dice ser.
  • VPNs y SSH: las herramientas de acceso remoto y administración de servidores.
  • Firma de software: los mecanismos que garantizan que una actualización de sistema operativo no fue manipulada.
  • Infraestructura crítica: sistemas de energía, agua, transporte que dependen de comunicaciones cifradas.
  • Comunicaciones diplomáticas y militares.

Microsoft apunta a 2033 para completar su transición. Google, a 2029. Cloudflare, también a 2029. La NSA exige nuevos sistemas clasificados en PQC desde 2027. NIST proyecta que el ciclo completo de adopción en infraestructura crítica tomará entre 5 y 10 años desde los estándares de 2024.


Lo que Aún No Sabemos

La información disponible al día de hoy deja abiertas preguntas importantes:

¿Cuándo llegará la primera CRQC? Las estimaciones van desde mediados de 2030 hasta 2050. La incertidumbre es genuina, no evasiva.

¿Podría haber avances secretos? Los gobiernos con programas cuánticos clasificados —China, Estados Unidos, posiblemente Rusia— no publican sus avances reales. La posibilidad de que una CRQC ya exista en secreto o esté muy cerca no puede descartarse.

¿Los nuevos estándares del NIST son realmente seguros? Matemáticamente, la comunidad criptográfica tiene alta confianza en ML-KEM y ML-DSA. Pero los algoritmos son relativamente nuevos y el análisis de ataques clásicos y cuánticos continúa. Ningún estándar cryptográfico es «eterno».

¿Cómo funcionará la transición en sistemas legacy? Hay hardware —módulos de seguridad, chips embebidos, sistemas industriales— que no puede actualizarse con un parche de software. La migración real del mundo es infinitamente más compleja que la de una empresa de software.


Conclusión: El Problema de los Plazos

El punto más importante que emerge de todo esto no es técnico sino temporal. La migración a criptografía post-cuántica no es un proceso que pueda activarse de un día para el otro. Los expertos que han migrado sistemas criptográficos anteriores —la transición de SHA-1 a SHA-2, iniciada en 2011, todavía no está completa— saben que estos procesos tardan décadas.

La ecuación es sencilla pero angustiante: si los plazos se comprimen —como acaban de hacer los papers de Google y Oratomic— y los tiempos de migración son largos, la ventana para actuar se estrecha rápidamente. Quien empiece tarde podría encontrarse en medio de su transición precisamente cuando la CRQC llegue.

«Es un shock real» no es una hipérbole periodística. Es la evaluación técnica de los propios investigadores que construyen el hardware.


Fuentes y Referencias

  1. Google Quantum AI — White Paper oficial (31 marzo 2026): Securing Elliptic Curve Cryptocurrencies against Quantum Vulnerabilities: Resource Estimates and Mitigations
    https://research.google/blog/safeguarding-cryptocurrency-by-disclosing-quantum-vulnerabilities-responsibly/
  2. Nature‘It’s a real shock’: quantum-computing breakthroughs pose imminent risks to cybersecurity (2 abril 2026)
    https://www.nature.com/articles/d41586-026-01054-1
  3. Google BlogGoogle’s timeline for PQC migration to 2029 (25 marzo 2026)
    https://blog.google/innovation-and-ai/technology/safety-security/cryptography-migration-timeline/
  4. SecurityWeekGoogle Slashes Quantum Resource Requirements for Breaking Cryptocurrency Encryption (31 marzo 2026)
    https://www.securityweek.com/google-slashes-quantum-resource-requirements-for-breaking-cryptocurrency-encryption/
  5. postquantum.comA New Algorithm Shrinks the Quantum Attack Surface for ECC
    https://postquantum.com/security-pqc/algorithm-quantum-ecc/
  6. postquantum.comCloudflare Joins Google: Two Internet Giants Now Say 2029 for Post-Quantum Migration
    https://postquantum.com/security-pqc/cloudflare-pqc-2029/
  7. postquantum.comGoogle Just Drew a Line in the Sand: PQC Migration by 2029
    https://postquantum.com/security-pqc/google-pqc-migration-2029/
  8. NISTReleases First 3 Finalized Post-Quantum Encryption Standards (agosto 2024)
    https://www.nist.gov/news-events/news/2024/08/nist-releases-first-3-finalized-post-quantum-encryption-standards
  9. CoinDeskBitcoin’s $1.3 trillion security race: Key initiatives aimed at quantum-proofing the world’s largest blockchain (5 abril 2026)
    https://www.coindesk.com/tech/2026/04/04/bitcoin-s-usd1-3-trillion-security-race-key-initiatives-aimed-at-quantum-proofing-the-world-s-largest-blockchain
  10. CoinDeskClock is ticking for Bitcoin to prevent quantum threat (25 abril 2026)
    https://www.coindesk.com/tech/2026/04/25/clock-is-ticking-for-bitcoin-to-prevent-quantum-threat-as-it-comes-down-to-6-9-million-btc-including-satoshi-s
  11. The Quantum InsiderHarvest Now, Decrypt Later: Why Today’s Encrypted Data Isn’t Safe Forever (1 mayo 2026)
    https://thequantuminsider.com/2026/05/01/harvest-now-decrypt-later-why-should-you-care/
  12. QRL BlogTwo Papers Just Changed the Quantum Threat Conversation. Here’s What They Actually Say (30 marzo 2026)
    https://www.theqrl.org/blog/two-papers-just-changed-the-quantum-threat-conversation-heres-what-they-actually-say/

Continue Reading

TENDENCIAS