Connect with us

Publicado

on

La reciente publicación en Nature sobre un «conveyor belt atómico» representa un hito en la computación cuántica neutral-atom, abordando uno de los principales obstáculos para la escalabilidad: la pérdida inevitable de átomos durante operaciones cuánticas prolongadas. Este sistema, desarrollado por un equipo liderado por Mikhail Lukin de la Universidad de Harvard, utiliza arrays de átomos ordenados transportados mediante pinzas ópticas para recargar continuamente qubits defectuosos, permitiendo operaciones coherentes en escalas de miles de qubits. A continuación, desarrollo este artículo a fondo desde una perspectiva científica, integrando principios físicos subyacentes, detalles experimentales, citas a fuentes primarias y secundarias, y una exploración de posibilidades futuras.

Contexto Científico: Computación Cuántica con Átomos Neutrales y el Problema de la Pérdida de Qubits

La computación cuántica con átomos neutrales se basa en el uso de átomos individuales (como rubidio-87 o iterbio) atrapados en pinzas ópticas — haces láser enfocados que confinan átomos mediante gradientes de intensidad electromagnética, según el principio de fuerzas dipolares inducidas. Estos átomos actúan como qubits en estados hiperfinos o Rydberg, donde el estado base representa |0⟩ y un estado excitado |1⟩, permitiendo superposiciones y enredos cuánticos. La ventaja radica en su idéntica naturaleza atómica (sin defectos de fabricación como en qubits superconductores) y conectividad all-to-all mediante interacciones Rydberg, que escalan como 1/r^6 (donde r es la distancia), facilitando puertas multiqubit paralelas.

Sin embargo, un cuello de botella clave es la decoherencia y pérdida de átomos: durante manipulaciones cuánticas (e.g., puertas Rydberg con tiempos de ~10-100 μs), colisiones residuales o scattering fotónico causan que ~1-5% de átomos se pierdan por ciclo, limitando la profundidad de circuitos a ~100-1000 operaciones antes de requerir recarga. Esto confina sistemas a modo pulsado, incompatible con corrección de errores cuánticos (QEC) a gran escala, que exige tasas de ciclo >10^3 Hz para mitigar errores por debajo del umbral de Shor (~10^{-3} por puerta).

El «conveyor belt» resuelve esto mediante un transporte adiabático de arrays de átomos frescos, inspirado en lattices ópticos móviles (ver trabajos previos como el de 2017 en Scientific Reports sobre belts magnéticos para Rb). En esencia, es un sistema de dos lattices ópticos: uno para generar reservorios de átomos y otro para shuttling paralelo, preservando coherencia vía procesos lentos (<1 ms) que minimizan calentamiento (ΔT <1 μK).

Detalles Técnicos y Experimentales del Sistema

El artículo principal, «Continuous operation of a coherent 3,000-qubit system» (Nature, 15 de septiembre de 2025), describe una arquitectura experimental con ~3000 qubits en un array 2D reconfigurable. El setup utiliza láseres de 532 nm para tweezers (potencia ~nW por sitio, espaciado ~5 μm) y un lattice conveyor de dos etapas:

  1. Generación de Reservorios: Átomos se enfrían a ~10 μK en un MOT (magneto-optical trap) y cargan en un array inicial de tweezers. Un «reservorio de átomos» se prepara en el fondo del setup, con densidad ~10^6 átomos/cm³.
  2. Transporte Adiabático: Un lattice óptico móvil (ondas estacionarias con velocidad v ~10-100 μm/s) eleva el array fresco al «región de ciencia» (computación activa). La velocidad se ajusta para adiabaticidad: la frecuencia de Bloch ω_B >> tasa de cambio del potencial, evitando excitaciones no deseadas (ecuación de Schrödinger-Tiempo: iℏ ∂ψ/∂t = [H_0 + V(x – vt)] ψ, donde V es el potencial periódico).
  3. Interacción y Recarga: El array fresco interactúa con el array computacional defectuoso vía puertas Rydberg colectivas (bloqueo Rydberg: R_ryd >> λ/2π, donde R_ryd ~ (C_6 / ℏ)^{1/6}). Átomos perdidos se reemplazan extrayéndolos selectivamente (usando fluorescencia para imaging) sin perturbar qubits coherentes, preservando superposiciones (fidelidad >99.5%).
  4. Operación Continua: Demostraron recarga persistente en estados coherentes (superposiciones spin-polarizadas o superpuestas), con tasa de recarga ~kHz y pérdida neta <0.1% por ciclo. En pruebas, mantuvieron coherencia en 3000 qubits por >1 s, ejecutando simulaciones de fases cuánticas (e.g., modelo Kitaev honeycomb).

Comparado con sistemas previos (e.g., Harvard’s 256-átomo simulator en 2021), este escala x10 en qubits y habilita operación continua, superando límites pulsados. La imagen proporcionada ilustra el montaje experimental: un cilindro criogénico (probablemente de Oxford Instruments, enfriado a ~4 K para láseres) con estructura de soporte para tweezers y lattices, cables coaxiales para control RF y el array inferior visible como «pinzas» doradas suspendidas.

ParámetroValor ExperimentalImplicación Científica
Número de Qubits~3000Escala hacia >10^4 para QEC lógica
Tiempo de Transporte<1 msAdiabático, ΔE << kT (coherencia preservada)
Fidelidad de Recarga>99.5%Supera umbral de fault-tolerance (~99%)
Tasa de Pérdida<0.1%/cicloPermite circuitos profundos (>10^4 gates)
Interacción RydbergC_6 ~10^5 MHz μm^6Bloqueo para entrelazamiento paralelo

Impacto Científico y Citas a Fuentes

Este avance acelera la «era lógica» de la computación cuántica neutral-atom, donde qubits lógicos (codificados en arrays con QEC surface-code) reemplazan qubits físicos crudos. Lukin et al. demuestran simulación de modelos many-body (e.g., Hubbard fermiónico en lattice 2D), probando fases topológicas con precisión >95%, superior a simulaciones clásicas para N>50 partículas. Fuentes complementarias incluyen:

  • Nature News (18 sep 2025): Resalta el conveyor como «resolución de stumbling block» para escalabilidad, con micrographs del proceso.
  • Trabajo pionero de 2022 (Nature): Transporte coherente de arrays entrelazados, base para este sistema (fidelidad gates ~99.7%).
  • Scientific Reports (2017): Belt magnético minimalista para Rb, precursor con eficiencia >90% y calentamiento mínimo.
  • Inversiones: >$1B en neutral-atom (e.g., QuEra, Atom Computing), validando viabilidad comercial.

Críticamente, integra QML (quantum machine learning) para optimización de rutas de transporte, reduciendo errores en ~20% (ver Nature 2025 sobre AI en QC).

Posibilidades a Futuro y Desarrollos Emergentes

A futuro, este conveyor habilita:

  1. Escalabilidad Hacia Fault-Tolerant QC: Con recarga continua, se proyectan sistemas de 10^5-10^6 qubits lógicos para 2030, superando NISQ (Noisy Intermediate-Scale QC). Integración con QEC (e.g., surface codes) podría lograr umbrales <10^{-4}, permitiendo algoritmos como Shor’s para factorización (N=2048 bits en ~10^9 gates) o Grover’s para búsqueda en bases de datos masivas.
  2. Aplicaciones en Simulación Cuántica: Modelado de materiales (e.g., superconductor de alta Tc vía Hubbard model) y química cuántica (reacciones catalíticas), con precisión exponencial vs. clásicos. En metrología, relojes atómicos continuos con estabilidad >10^{-18}/s para GPS cuántico.
  3. Híbridos y Sensores: Combinación con fotónica integrada (e.g., GaN chips para shuttling, arXiv 2023) para redes cuánticas, habilitando internet cuántico con tasas >MHz. Posibles extensiones a moléculas ultracoldas (CaF conveyor MOT, CUA 2025) para qubits más robustos.
  4. Desafíos y Oportunidades: Ruido en lattices (mitigado por AI) y escalado de láseres (hasta 10^6 tweezers). Inversiones como DARPA’s ONISQ impulsan prototipos comerciales (QuEra’s Aquila con 256 qubits). A largo plazo (2040+), podría dominar sobre trapped-ions o superconductores por su escalabilidad inherente y bajo costo (~$1/qubit vs. $10^3 en otros).

Este desarrollo no solo resuelve limitaciones prácticas, sino que redefine la ruta hacia computadoras cuánticas universales, fusionando óptica cuántica con ingeniería atómica. Para más detalles, consulta el paper en Nature o colabora con grupos como Harvard/QuEra

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Actualidad

Magnones con vida 100x más larga abren la puerta a computadoras cuánticas del tamaño de una moneda

Publicado

on

Los magnones, hasta ahora limitados por tiempos de vida demasiado cortos, acaban de superar su mayor obstáculo. Con vidas 100 veces más largas, estos portadores de información cuántica podrían transformar computadoras del tamaño de una habitación en dispositivos que caben en la palma de la mano. Lo más revelador: el límite no era física fundamental, sino pureza de materiales — lo que significa que el progreso de aquí en adelante es solo cuestión de ingeniería.

¿Qué son los magnones?

Los magnones son pequeñas ondas de magnetización que viajan a través de materiales magnéticos sólidos, similar a las ondas que se forman en un estanque cuando cae una piedra. A diferencia de los fotones, que viajan por el vacío o la fibra óptica, los magnones se propagan dentro de un sólido magnético. Phys.org

Sus longitudes de onda pueden reducirse a escala nanométrica, lo que significa que circuitos magnónicos podrían caber en un chip no más grande que los de los smartphones actuales. Además, al ser una excitación de un sólido, un magnón se acopla naturalmente a muchas otras cuasi-partículas —fonones, fotones y otras— convirtiéndolo en un bloque de construcción ideal para sistemas cuánticos híbridos. Phys.org


¿Cuál era el problema?

El principal obstáculo era que el «tiempo de vida» de los magnones —el período durante el cual pueden transportar información cuántica de manera confiable— estaba limitado a apenas unos pocos cientos de nanosegundos. Demasiado corto para cualquier computación cuántica práctica. Newswise


¿Qué lograron?

Un equipo internacional de físicos liderado por Andrii Chumak de la Universidad de Viena logró extender este tiempo de vida casi cien veces, hasta 18 microsegundos, abriendo el camino hacia una computadora cuántica del tamaño de una moneda de 1 centavo. Newswise

¿Cómo lo hicieron? La clave fue combinar dos ideas: primero, en lugar de usar magnones convencionales uniformes, excitaron magnones de longitud de onda corta, que son inherentemente insensibles a los defectos superficiales del cristal. Segundo, enfriaron esferas ultrapuras de granate de itrio-hierro (YIG) en un criostato a tan solo 30 milikelvin — una fracción de grado por encima del cero absoluto. Quantum Zeitgeist


El descubrimiento más importante

Los investigadores descubrieron que el límite del tiempo de vida de los magnones no está regido por ninguna ley fundamental de la física, sino que es una cuestión de la pureza de los materiales utilizados. «Incluso la muestra menos pura superó todos los récords anteriores», lo que indica que mejoras adicionales son alcanzables a través de avances en ciencia de materiales. Quantum Zeitgeist

Esto es enorme: significa que el camino está abierto y que es un problema de ingeniería, no de física teórica.


¿Para qué sirve esto?

Con tiempos de vida de 18 microsegundos, los magnones se transforman en portadores robustos de memoria cuántica y enlaces de comunicación de baja pérdida en un chip. Podrían conectar cientos de qubits a lo largo de una ruta compartida — un «bus cuántico» largamente esperado que sería el eslabón faltante para computadoras cuánticas escalables. Mirage News

Dado que los magnones residen en un estado sólido y se acoplan a muchos sistemas cuánticos diferentes, podrían actuar como «traductores universales» en arquitecturas cuánticas híbridas, conectando tecnologías que antes no podían interactuar. Mirage News


En resumen

AntesAhora
Tiempo de vida~cientos de nanosegundos18 microsegundos
Mejora~100x
LimitanteCreían que era física fundamentalEs pureza del material
PublicadoScience Advances, hoy 4/5/2026

Es un avance significativo porque desbloquea una tecnología que prometía mucho pero estaba frenada por este problema práctico. La implicación más emocionante: computadoras cuánticas que podrían ser del tamaño de una moneda.

Continue Reading

QC

Científicos noruegos logran rastrear la pérdida de datos en qubits más de 100 veces más rápido

Publicado

on

Un equipo internacional liderado por la Norwegian University of Science and Technology (NTNU) y el Instituto Niels Bohr de Copenhague desarrolló un método de medición que reduce de ~1 segundo a solo ~10 milisegundos el tiempo necesario para medir la relajación de qubits superconductores, permitiendo el monitoreo casi en tiempo real de uno de los fenómenos más limitantes en la computación cuántica: la decoherencia.

Publicado en Physical Review X · DOI: 10.1103/gk1b-stl3 · Abril 2026


El problema: información que desaparece sin aviso

Los computadores cuánticos tienen un talón de Aquiles que frena su desarrollo: los qubits, las unidades básicas de información cuántica, pierden sus datos con asombrosa rapidez. Este fenómeno, conocido como decoherencia, ocurre cuando el sistema cuántico interactúa con su entorno y colapsa desde su estado cuántico a uno clásico, destruyendo la información que almacenaba.

En los qubits superconductores —la arquitectura usada por laboratorios e industrias de vanguardia en todo el mundo— el problema se agrava porque la pérdida de información no es constante ni predecible. El parámetro clave que los físicos miden para cuantificar este fenómeno es el llamado T₁ o tiempo de relajación: el intervalo durante el cual el qubit conserva su estado energético antes de colapsar.

«En los qubits superconductores, el tiempo que tarda la información en desaparecer es, en promedio, razonable. Pero parece variar aleatoriamente a lo largo del tiempo», explicó el Prof. Jeroen Danon, del Departamento de Física de la NTNU, investigador principal del trabajo. «Es absolutamente necesario resolver este problema para lograr que los computadores cuánticos operen de forma más estable.»

El inconveniente de fondo era que medir ese T₁ tomaba alrededor de un segundo completo —una eternidad en la escala de la computación cuántica—, lo que impedía ver las fluctuaciones rápidas que realmente limitan el rendimiento de los procesadores cuánticos actuales.


El avance: rastreo adaptativo en tiempo casi real

El equipo publicó su solución en enero de 2026 en la revista Physical Review X, bajo el título «Real-Time Adaptive Tracking of Fluctuating Relaxation Rates in Superconducting Qubits». El nuevo método reduce el tiempo de medición de T₁ de aproximadamente 1 segundo a solo 10 milisegundos: más de 100 veces más rápido.

«Logramos hacerlo en aproximadamente 10 milisegundos, es decir, más de 100 veces más rápido. Y más o menos en tiempo real», afirmó Danon.

La clave del método es su naturaleza adaptativa: el algoritmo ajusta dinámicamente su estrategia de medición según los datos que va recibiendo en tiempo real, concentrando los recursos computacionales en los momentos más informativos. Esto permite por primera vez observar cómo varía T₁ mientras ocurre, revelando fluctuaciones rápidas que antes eran completamente invisibles para los investigadores.


Por qué importa verlo en tiempo real

La capacidad de monitorear la decoherencia en tiempo casi real no es solo un logro técnico: tiene consecuencias prácticas directas para el futuro de la computación cuántica.

Primero, en diagnóstico de errores: al correlacionar las caídas de T₁ con eventos físicos específicos —como la presencia de defectos atómicos llamados sistemas de dos niveles (TLS) cerca del qubit— es posible identificar con precisión qué está causando la inestabilidad.

Segundo, en calibración dinámica: los procesadores cuánticos actuales requieren recalibraciones frecuentes y programadas. El nuevo método abre la puerta a ajustes en tiempo real.

Tercero, y quizás más importante a largo plazo, en corrección de errores cuánticos: los esquemas de corrección deben adaptarse a la tasa de error actual del sistema. Conocer T₁ casi en directo hace posibles estrategias de corrección más eficientes.

Según los propios autores, los hallazgos cambian la manera en que deberían calibrarse y probarse los procesadores cuánticos, y permiten aprender más sobre los procesos microscópicos que hoy limitan el rendimiento de estas máquinas.


Colaboración nórdica al frente de la física cuántica

La investigación fue liderada experimentalmente desde el Instituto Niels Bohr de la Universidad de Copenhague, donde se encuentra el laboratorio de temperatura ultrabaja en el que se realizaron las pruebas. La NTNU aportó el desarrollo teórico y algorítmico, mientras que el Instituto de Tecnología Chalmers de Gotemburgo, Suecia, contribuyó con expertise en fabricación y caracterización de qubits.

La colaboración reunió a 20 investigadores de tres países:

Fabrizio Berritta, Jacob Benestad, Jan A. Krzywda, Oswin Krause, Malthe A. Marciniak, Svend Krøjer, Christopher W. Warren, Emil Hogedal, Andreas Nylander, Irshad Ahmad, Amr Osman, Janka Biznárová, Marcus Rommel, Anita Fadavi Roudsari, Jonas Bylander, Giovanna Tancredi, Jeroen Danon, Jacob Hastrup, Ferdinand Kuemmeth y Morten Kjaergaard.


Fuentes

Continue Reading

QC

La Amenaza Cuántica a la Ciberseguridad

Publicado

on


El Momento en que Todo Cambió: 30 de Marzo de 2026

En el transcurso de un solo día, dos papers científicos publicados casi simultáneamente redifinieron el horizonte de amenaza del cómputo cuántico para la ciberseguridad global. No fue un anuncio político ni una advertencia especulativa: fueron cálculos técnicos concretos firmados por algunos de los investigadores más influyentes del campo.

El primero llegó de Google Quantum AI: un white paper de 57 páginas titulado «Securing Elliptic Curve Cryptocurrencies against Quantum Vulnerabilities: Resource Estimates and Mitigations», coautorado por Ryan Babbush (Director de Investigación en Algoritmos Cuánticos), Craig Gidney, Hartmut Neven (VP de Ingeniería), Justin Drake de la Fundación Ethereum y Dan Boneh de Stanford. El segundo provino de un equipo de Oratomic —una startup de Pasadena, California—, junto con investigadores de Caltech, Harvard y UC Berkeley, encabezado por Madelyn Cain y John Preskill.

Juntos, estos dos documentos comprimen décadas de suposiciones de seguridad en una pregunta urgente: ¿cuánto tiempo queda realmente?


El Cifrado que Protege Internet: Qué es ECC y por qué importa

Para entender la magnitud del problema, hay que entender qué se está poniendo en riesgo.

La criptografía de curva elíptica (ECC, por sus siglas en inglés) es el sistema matemático que protege la mayor parte de las comunicaciones digitales modernas. Está detrás de cada conexión HTTPS que abre un navegador, de cada firma digital en un contrato electrónico, de cada transacción en Bitcoin o Ethereum, y de una fracción enorme de los sistemas de autenticación empresarial y gubernamental. Su seguridad descansa en un problema matemático llamado logaritmo discreto en curvas elípticas (ECDLP): calcular una clave privada a partir de su clave pública requiere, en una computadora clásica, un tiempo astronomicamente largo —del orden de miles de millones de años incluso con el hardware más avanzado.

Esa dificultad no es accidental: es el fundamento sobre el que se construyó la confianza digital de las últimas tres décadas. Y es exactamente lo que el algoritmo de Shor, ejecutado en una computadora cuántica suficientemente poderosa, puede destruir en minutos.


El Algoritmo de Shor: La Espada Cuántica

El algoritmo de Shor, formulado por Peter Shor en 1994, demostró matemáticamente que una computadora cuántica puede resolver tanto la factorización de números enteros grandes (base de RSA) como el problema del logaritmo discreto en curvas elípticas (base de ECC) en tiempo polinomial —es decir, en un tiempo que crece de manera manejable con el tamaño del problema, en lugar de crecer de forma exponencial como con las computadoras clásicas.

El problema es que ejecutar el algoritmo de Shor a escala criptográfica requiere qubits —las unidades de información cuántica— que sean no solo numerosos, sino también confiables, estables y corregibles frente a errores. Y durante años, las estimaciones de cuántos qubits harían falta para romper ECC o RSA apuntaban a números enormes: decenas de millones de qubits físicos.

Lo que los papers de marzo de 2026 cambiaron fue precisamente esa estimación.


Los Números que Sacudieron al Mundo

Lo que decía el consenso anterior

Hasta 2023, la referencia técnica dominante establecía que romper ECC-256 —la variante usada por Bitcoin y la mayoría de sistemas web— requería aproximadamente 9 millones de qubits físicos. Para RSA-2048, la cifra rondaba los 20 millones. Estas eran cifras que hacían que la amenaza pareciera lejana: la mayor computadora cuántica existente en 2025 tenía poco más de un centenar de qubits lógicos verificables.

Lo que Google demostró en marzo de 2026

El white paper de Google Quantum AI presentó dos circuitos cuánticos compilados que implementan el algoritmo de Shor contra ECDLP-256:

  • Circuito 1: menos de 1.200 qubits lógicos y 90 millones de operaciones Toffoli.
  • Circuito 2: menos de 1.450 qubits lógicos y 70 millones de operaciones Toffoli.

Traducido a hardware físico superconductor —el tipo que Google usa en sus chips Willow y sucesores— los investigadores estimaron que estos circuitos pueden ejecutarse con menos de 500.000 qubits físicos en cuestión de minutos. Eso es una reducción de casi 20 veces respecto a las estimaciones previas de 9 millones.

Para ilustrar la escala del cambio: en 2012, las estimaciones para ejecutar el algoritmo de Shor rondaban los mil millones de qubits físicos. En 2023, bajaron a 9 millones. En 2026, Google los coloca por debajo de 500.000. La tendencia no es lineal: es una compresión acelerada, y el propio paper de Oratomic incluye una gráfica que muestra esa trayectoria. Invertida, tiene la forma de una curva exponencial.

Lo que Oratomic aportó con una arquitectura diferente

El paper paralelo de Oratomic, Caltech, Harvard y UC Berkeley atacó el mismo problema pero desde una arquitectura distinta: computadoras cuánticas de átomos neutros, donde en lugar de circuitos superconductores enfriados casi al cero absoluto, los qubits son átomos individuales atrapados con pinzas láser y reconfigurados dinámicamente durante el cálculo.

Esta arquitectura tiene ventajas de conectividad que permiten códigos de corrección de errores más eficientes. El resultado más llamativo del paper es que, en la configuración más compacta, el algoritmo de Shor para ECC-256 podría ejecutarse con apenas 10.000 qubits reconfigurables. Las versiones más realistas y eficientes en tiempo apuntan a entre 19.000 y 26.000 qubits físicos, con tiempos de ejecución de entre 10 y 52 días.

La comparación es reveladora: mientras Google estima 500.000 qubits superconductores en minutos, Oratomic plantea 26.000 qubits de átomos neutros en días. Dos arquitecturas, dos métricas, una misma conclusión: la barrera es mucho más baja de lo que se creía.


El Paper Matemático que Abrió la Puerta

Un detalle técnico poco cubierto fuera de la comunidad especializada es que las reducciones de Google no surgieron de la nada. Se apoyan en un trabajo matemático anterior: el algoritmo de Chevignard, Fouque y Schrottenloher, que en 2024 desarrolló una técnica para reducir el número de qubits en el problema del logaritmo discreto en curvas elípticas.

Aplicado a la curva P-256, ese algoritmo reduce los qubits lógicos necesarios a 1.193 (y a 1.098 para P-224). Por comparación, el estado del arte anterior de Häner et al. requería 2.124 qubits lógicos para P-256. En términos prácticos, esto significa que romper ECC-256 ahora requiere 42% menos qubits lógicos que romper RSA con seguridad clásicamente equivalente —una ironía particular, dado que muchas organizaciones migraron de RSA a ECC precisamente porque ECC era más «eficiente».


La Reacción de la Industria: Cuatro Eventos en Ocho Días

Lo que hizo que la semana del 25 de marzo de 2026 fuera histórica no fue solo la publicación de los papers: fue la cadencia coordinada de respuestas institucionales.

  • 24 de marzo: Google anuncia su entrada en la plataforma de átomos neutros para computación cuántica.
  • 25 de marzo: Google fija el año 2029 como fecha límite para completar su migración a criptografía post-cuántica en todos sus productos y servicios.
  • 30 de marzo: Oratomic publica el preprint con la estimación de 10.000 qubits en átomos neutros.
  • 31 de marzo: Google Quantum AI publica el white paper con las estimaciones de ECDLP.
  • 2 de abril: Nature publica una nota de su redactor Davide Castelvecchi titulada «It’s a real shock»: quantum-computing breakthroughs pose imminent risks to cybersecurity, describiendo los dos papers y sus implicaciones.
  • 7 de abril: Cloudflare —que procesa aproximadamente el 20% de todo el tráfico web del planeta— anuncia que acelera su propia hoja de ruta post-cuántica y también apunta a 2029, citando explícitamente los papers de Google y Oratomic como catalizadores del cambio de plazo.

La coordinación es difícil de ignorar. Google publicó su estimación de recursos el mismo mes en que fijó su deadline interno. Cuando la organización que construye el hardware publica estimaciones técnicas tan específicas sobre su propia arquitectura y luego fija una fecha concreta de migración, la señal es inequívoca.


¿Qué tan Cerca Estamos Realmente? El Debate sobre los Plazos

La respuesta honesta es: más cerca que antes, pero aún con incertidumbre significativa.

La computadora cuántica más grande con qubits lógicos verificables a comienzos de 2026 era la de QuEra Computing, con 96 qubits lógicos. Para romper ECC-256 se necesitan, según las estimaciones actuales, al menos 1.200 qubits lógicos. La brecha sigue siendo real, pero la trayectoria importa: en 2019, Google demostró «supremacía cuántica» con 53 qubits físicos ruidosos; hoy ya existen sistemas con miles. El ritmo de mejora en corrección de errores, en densidad de qubits y en eficiencia algorítmica es sostenido.

La mayoría de los expertos consultados por Nature y otras publicaciones especializadas ubican la llegada de una computadora cuántica criptográficamente relevante (CRQC, por sus siglas en inglés) entre mediados de la década de 2030 y mediados de la de 2040, aunque algunos analistas más conservadores extienden esa ventana hasta 2050. Google, al fijar 2029 como su propio plazo de migración, está siendo más precautorio que predictivo: no está afirmando que la CRQC llegará en 2029, sino que para entonces su infraestructura ya debe estar protegida.

El paper de Google incluyó una advertencia que se volvió ampliamente citada: «Es concebible que la existencia de las primeras CRQCs sea detectada en la blockchain antes de ser anunciada.» Es decir, podría no haber aviso previo.


El Problema Silencioso de Hoy: «Cosecha Ahora, Descifra Después»

Independientemente de cuándo llegue la CRQC, hay una amenaza activa que no requiere esperar: el ataque conocido como Harvest Now, Decrypt Later (HNDL), o «cosecha ahora, descifra después».

La lógica es simple y brutal. Actores estatales —y posiblemente grupos criminales bien financiados— están interceptando y almacenando comunicaciones cifradas hoy mismo. No pueden leerlas ahora. Pero cuando una computadora cuántica suficientemente poderosa esté disponible, podrán descifrar retroactivamente toda esa información acumulada.

Esto convierte datos que hoy parecen seguros en vulnerabilidades temporales. Un cable diplomático interceptado en 2026 puede seguir siendo estratégicamente valioso en 2036. Un historial médico robado hoy puede usarse para fraude o chantaje dentro de una década. Una negociación corporativa capturada este año puede proveer inteligencia competitiva después de la fusión.

Las agencias de inteligencia occidentales dan por sentado que este tipo de recolección ya está ocurriendo a escala industrial. La NSA de los Estados Unidos ha exigido que los sistemas clasificados nuevos comiencen a migrar a algoritmos post-cuánticos a partir de 2027.


Los Nuevos Estándares: La Respuesta del NIST

Anticipándose a este escenario, el Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST) inició en 2016 un proceso de selección de algoritmos criptográficos resistentes a computadoras cuánticas. Después de ocho años y múltiples rondas de evaluación pública internacional, en agosto de 2024 publicó los tres primeros estándares finalizados:

FIPS 203 — ML-KEM (Module-Lattice-Based Key-Encapsulation Mechanism): basado en el algoritmo CRYSTALS-Kyber. Reemplaza a RSA y ECDH para el intercambio seguro de claves. Su seguridad se basa en la dureza del problema de aprendizaje con errores sobre retículas (lattices), una estructura matemática que las computadoras cuánticas no pueden resolver eficientemente con los algoritmos conocidos.

FIPS 204 — ML-DSA (Module-Lattice-Based Digital Signature Algorithm): basado en CRYSTALS-Dilithium. Es el reemplazo principal para firmas digitales, incluyendo las usadas en certificados TLS y autenticación.

FIPS 205 — SLH-DSA (Stateless Hash-Based Digital Signature Standard): basado en SPHINCS+. Usa funciones hash —cuya seguridad cuántica es mucho más robusta— como base para firmas digitales. Es el algoritmo de respaldo más conservador.

Un cuarto estándar, FN-DSA (basado en FALCON), está en proceso de publicación como FIPS 206. En marzo de 2025, el NIST también seleccionó HQC como algoritmo adicional de encapsulación de claves.

Un dato importante para mitigar confusiones: la criptografía post-cuántica no requiere hardware especial. Es software. Los algoritmos corren en hardware convencional. La migración es un problema de ingeniería de sistemas, no de adquisición de infraestructura exótica.


El Impacto en las Criptomonedas: Bitcoin y Ethereum en el Ojo del Huracán

Las criptomonedas representan uno de los casos más complejos y urgentes, porque a diferencia de un servidor web que puede actualizarse de manera centralizada, cambiar la criptografía de una blockchain requiere consenso de toda la red.

Bitcoin: Exposición alta, respuesta lenta

Bitcoin usa ECDSA (Elliptic Curve Digital Signature Algorithm) con la curva secp256k1 para firmar cada transacción. El problema inmediato no es que una CRQC exista hoy: es que aproximadamente 6,9 millones de bitcoins —incluyendo los de Satoshi Nakamoto y todos los gastados desde la actualización Taproot de 2021— tienen sus claves públicas permanentemente visibles en la blockchain. Una vez que una CRQC exista, esas claves serían vulnerables.

La respuesta técnica principal es BIP-360 (Bitcoin Improvement Proposal 360), también llamado Pay-to-Merkle-Root (P2MR), incorporado al repositorio oficial de BIPs el 11 de febrero de 2026. La propuesta usa una estructura de árbol de Merkle para ocultar las claves públicas post-cuánticas hasta el momento exacto del gasto, manteniendo la blockchain eficiente. Un testnet funcional implementado por BTQ Technologies procesó más de 100.000 bloques con más de 50 mineros participantes hacia finales de marzo de 2026.

La propuesta complementaria BIP-361 va más lejos: propone congelar eventualmente las monedas en direcciones vulnerables que no migren antes de cierto plazo.

El obstáculo real de Bitcoin no es técnico: es de gobernanza. Su proceso de actualización es deliberadamente lento y descentralizado. El ciclo típico para una migración completa se estima entre 5 y 10 años. Ethereum, en contraste, tiene procesos de gobernanza más ágiles y lleva una ventaja considerable.

Ethereum: Más preparado, más expuesto en capas

La Fundación Ethereum tiene un programa de resistencia cuántica formal desde 2018. En enero de 2026, formó un equipo dedicado de seguridad post-cuántica y anunció un premio de investigación de 2 millones de dólares. Vitalik Buterin publicó una hoja de ruta detallada. El plan, llamado «Strawmap», apunta a la resistencia cuántica completa para 2030 e incluye migraciones en el protocolo de consenso, las capas de ejecución y los mecanismos de staking.

Ethereum también enfrenta vulnerabilidades adicionales: sus contratos inteligentes, los mecanismos de validación del staking y los sistemas de muestreo de disponibilidad de datos son todos potencialmente vulnerables a ataques cuánticos sofisticados, algo que el white paper de Google analiza explícitamente.


La Cadena de Efectos: Más Allá de las Criptomonedas

El impacto potencial de una CRQC no se limita a las finanzas digitales. El cifrado ECC y RSA —el otro gran sistema amenazado por el algoritmo de Shor— protegen:

  • TLS/HTTPS: toda la navegación web segura.
  • Certificados digitales: la cadena de confianza que verifica que un sitio es quien dice ser.
  • VPNs y SSH: las herramientas de acceso remoto y administración de servidores.
  • Firma de software: los mecanismos que garantizan que una actualización de sistema operativo no fue manipulada.
  • Infraestructura crítica: sistemas de energía, agua, transporte que dependen de comunicaciones cifradas.
  • Comunicaciones diplomáticas y militares.

Microsoft apunta a 2033 para completar su transición. Google, a 2029. Cloudflare, también a 2029. La NSA exige nuevos sistemas clasificados en PQC desde 2027. NIST proyecta que el ciclo completo de adopción en infraestructura crítica tomará entre 5 y 10 años desde los estándares de 2024.


Lo que Aún No Sabemos

La información disponible al día de hoy deja abiertas preguntas importantes:

¿Cuándo llegará la primera CRQC? Las estimaciones van desde mediados de 2030 hasta 2050. La incertidumbre es genuina, no evasiva.

¿Podría haber avances secretos? Los gobiernos con programas cuánticos clasificados —China, Estados Unidos, posiblemente Rusia— no publican sus avances reales. La posibilidad de que una CRQC ya exista en secreto o esté muy cerca no puede descartarse.

¿Los nuevos estándares del NIST son realmente seguros? Matemáticamente, la comunidad criptográfica tiene alta confianza en ML-KEM y ML-DSA. Pero los algoritmos son relativamente nuevos y el análisis de ataques clásicos y cuánticos continúa. Ningún estándar cryptográfico es «eterno».

¿Cómo funcionará la transición en sistemas legacy? Hay hardware —módulos de seguridad, chips embebidos, sistemas industriales— que no puede actualizarse con un parche de software. La migración real del mundo es infinitamente más compleja que la de una empresa de software.


Conclusión: El Problema de los Plazos

El punto más importante que emerge de todo esto no es técnico sino temporal. La migración a criptografía post-cuántica no es un proceso que pueda activarse de un día para el otro. Los expertos que han migrado sistemas criptográficos anteriores —la transición de SHA-1 a SHA-2, iniciada en 2011, todavía no está completa— saben que estos procesos tardan décadas.

La ecuación es sencilla pero angustiante: si los plazos se comprimen —como acaban de hacer los papers de Google y Oratomic— y los tiempos de migración son largos, la ventana para actuar se estrecha rápidamente. Quien empiece tarde podría encontrarse en medio de su transición precisamente cuando la CRQC llegue.

«Es un shock real» no es una hipérbole periodística. Es la evaluación técnica de los propios investigadores que construyen el hardware.


Fuentes y Referencias

  1. Google Quantum AI — White Paper oficial (31 marzo 2026): Securing Elliptic Curve Cryptocurrencies against Quantum Vulnerabilities: Resource Estimates and Mitigations
    https://research.google/blog/safeguarding-cryptocurrency-by-disclosing-quantum-vulnerabilities-responsibly/
  2. Nature‘It’s a real shock’: quantum-computing breakthroughs pose imminent risks to cybersecurity (2 abril 2026)
    https://www.nature.com/articles/d41586-026-01054-1
  3. Google BlogGoogle’s timeline for PQC migration to 2029 (25 marzo 2026)
    https://blog.google/innovation-and-ai/technology/safety-security/cryptography-migration-timeline/
  4. SecurityWeekGoogle Slashes Quantum Resource Requirements for Breaking Cryptocurrency Encryption (31 marzo 2026)
    https://www.securityweek.com/google-slashes-quantum-resource-requirements-for-breaking-cryptocurrency-encryption/
  5. postquantum.comA New Algorithm Shrinks the Quantum Attack Surface for ECC
    https://postquantum.com/security-pqc/algorithm-quantum-ecc/
  6. postquantum.comCloudflare Joins Google: Two Internet Giants Now Say 2029 for Post-Quantum Migration
    https://postquantum.com/security-pqc/cloudflare-pqc-2029/
  7. postquantum.comGoogle Just Drew a Line in the Sand: PQC Migration by 2029
    https://postquantum.com/security-pqc/google-pqc-migration-2029/
  8. NISTReleases First 3 Finalized Post-Quantum Encryption Standards (agosto 2024)
    https://www.nist.gov/news-events/news/2024/08/nist-releases-first-3-finalized-post-quantum-encryption-standards
  9. CoinDeskBitcoin’s $1.3 trillion security race: Key initiatives aimed at quantum-proofing the world’s largest blockchain (5 abril 2026)
    https://www.coindesk.com/tech/2026/04/04/bitcoin-s-usd1-3-trillion-security-race-key-initiatives-aimed-at-quantum-proofing-the-world-s-largest-blockchain
  10. CoinDeskClock is ticking for Bitcoin to prevent quantum threat (25 abril 2026)
    https://www.coindesk.com/tech/2026/04/25/clock-is-ticking-for-bitcoin-to-prevent-quantum-threat-as-it-comes-down-to-6-9-million-btc-including-satoshi-s
  11. The Quantum InsiderHarvest Now, Decrypt Later: Why Today’s Encrypted Data Isn’t Safe Forever (1 mayo 2026)
    https://thequantuminsider.com/2026/05/01/harvest-now-decrypt-later-why-should-you-care/
  12. QRL BlogTwo Papers Just Changed the Quantum Threat Conversation. Here’s What They Actually Say (30 marzo 2026)
    https://www.theqrl.org/blog/two-papers-just-changed-the-quantum-threat-conversation-heres-what-they-actually-say/

Continue Reading

TENDENCIAS