Cuando el mundo se iba a acabar por un bit: Del Y2K al Y2Q
- Damián Salcedo
- 26 may
- 6 Min. de lectura
Creo que solo los mayores de 30 recordarán como, a finales del siglo pasado, los titulares de noticias se inundaron de la posibilidad de un colapso social producto de un bug de computadora que amenazaba con tumbar el sistema financiero, los canales de comunicación, redes de transporte, y cualquier sistema donde estuviera presente una computadora.
El problema del año 2000, Y2K o el Bug del Milenio, consistía en que cuando los relojes marcaran el primero de enero del año 2000, todas las fechas almacenadas por las computadoras pasarían de “99” a “00”, por lo que no se podría saber si se referían al año 2000 o 1900. Los jóvenes que lean esto pensarán “¿y por qué no simplemente guardaban las fechas con cuatro dígitos en vez de 2?”
Claro, ahora que tenemos gigas y gigas de bytes disponibles para cada usuario esto es una decisión trivial, pero en los años 70 y 80 un solo bit de información que pudieses ahorrar en disco o memoria marcaba una diferencia enorme entre gastar 100 o 10000 dólares en un proyecto.

El impacto de este fenómeno en la cultura popular fue tal que hasta los Simpson hicieron un episodio burlándose de cómo un simple error podría causar el fin de la raza humana (“La casita del Horror X” Historia 3).
Sin embargo, gracias a una gigantesca movilización internacional e inversión masiva en pruebas, parches y actualizaciones, el efecto real del Y2K quedó reducido a incidentes aislados y anecdóticos. El que los estragos del bug del milenio fueran tan minúsculos se debió a que gobiernos, empresas y entidades reguladoras a nivel mundial destinaron entre 300 y 600 mil millones de dólares en proyectos de corrección y pruebas de compatibilidad durante los años 1998–2000.
Se implementaron estrategias como expansión de campo (date expansion), ventanas de fecha (date windowing) y kits de software especializados, además de simultáneas campañas de auditoría de código y simulaciones de escenarios catastróficos.
Recuerdo que los noticieros a finales de 1999 ya daban un parte de tranquilidad y daban a entender entre la población “todo va a estar bien!”, sin embargo, se sentía en el aire una atmósfera de “¿y qué tal si no?”. No fue sino hasta que celebramos el año nuevo y amanecimos el primero de enero que este incidente pasó a ser un recuerdo poco mencionado en el futuro.
La paradoja de la preparación
Paradójicamente, el éxito de la preparación y la ausencia de efectos negativos de relevancia dio pie a que muchos llegaran a afirmar que el Y2K había sido una exageración. Este fenómeno encaja con lo que en ciencias sociales se conoce como la “paradoja de la preparación”: cuanto mejor se mitiga un desastre, menor es el daño visible y, por ende, la gente tiende a infravalorar el peligro original y a cuestionar el gasto y esfuerzo dedicados a la prevención. En pocas palabras, el hecho de que casi nada fallara reforzó la idea de que “no había nada que preparar”.
Como alguien que vivió los años previos al Y2K siento que hoy vivimos un momento análogo con la computación cuántica. Algoritmos como el de Peter Shor demuestran que una computadora cuántica suficientemente potente podría factorizar números enteros y quebrar RSA/ECC/DH en minutos, poniendo en jaque la criptografía asimétrica que sustenta la seguridad de la web, la banca y las comunicaciones seguras.

Relatos recientes advierten que estamos cerca del “Q-Day” o Y2Q —el día en que un dispositivo cuántico práctico supere el umbral para atacar claves convencionales— y que, si no se adoptan algoritmos resistentes a la era cuántica, podríamos enfrentar fugas masivas de información confidencial.
Si el Y2Q se materializara mañana, los agentes en posesión de dicha tecnología podrían vulnerar la seguridad de cualquier sistema expuesto a internet que use llaves RSA/ECC/DH.
Esto desencadenaría el descifrado masivo de transacciones y cuentas financieras; terrenos críticos como los sistemas de salud quedarían expuestos, con historiales médicos y datos personales al alcance de este atacante; las cadenas de suministro y la logística global, sustentadas en firmas digitales para validación de contratos y seguimiento de mercancías, sufrirían interrupciones masivas y fraudes de identidad; mientras que los usuarios comunes, confiando en la seguridad de sus tiendas de e-commerce y servicios en la nube, verían expuestas contraseñas, correos y archivos privados, desatando pánico, pérdidas económicas inmediatas y un colapso de la confianza en la infraestructura digital que hoy damos por segura.
Es por esto que son los gobiernos de las superpotencias los más preocupados por prepararse, pues un gobierno rival que logre alcanzar esta arma podría destruirlos sin necesidad de lanzar una sola bomba. De hecho, China acaba de anunciar que logró romper una llave RSA de 90 bits haciendo uso de un computador cuántico comercial (la mayoría de llaves RSA que se usan actualmente son de 2048 bits).
Por lo anterior, y al igual que con el Y2K, en este momento se lleva a cabo una masiva movilización de preparación a nivel mundial para encontrar algoritmos resistentes a ataques con computadores cuánticos y poder aplicarlos en toda la infraestructura tecnológica.
El Instituto Nacional de Estándares y Tecnología de EE. UU. (NIST) lidera desde 2016 un proceso de estandarización de criptografía post-cuántica. En agosto de 2024 se publicaron los estándares de los algoritmos seleccionados —ML-KEM (Key-Encapsulation Mechanism, derivado de CRYSTALS-Kyber), ML-DSA (derivado de CRYSTALS-Dilithium para firmas), y SLH-DSA (derivado de SPHINCS+) — por su robustez y eficiencia, con miras a su adopción como futuros estándares FIPS (más detalle aquí).
Estas primitivas ya cuentan con implementaciones de referencia y están siendo evaluadas en infraestructuras críticas, sentando las bases para una migración ordenada a algoritmos de criptografía poscuántica (PQC por sus siglas en inglés).
De hecho organizaciones como Amazon Web Services (AWS), Google, Microsoft, Apple, Signal, OpenSSH, entre otros, ya han publicado sus planes de migración a estándares poscuánticos (PostQ) y han empezado a soportar el uso de protocolos criptográficos híbridos que mezclan algoritmos actuales con algoritmos PostQ:
Signal integra el protocolo PQXDH (Post-Quantum Extended Diffie-Hellman) para el establecimiento inicial de claves, aportando confidencialidad y denegación plausible aun frente a atacantes cuánticos.
El navegador Chrome soporta desde agosto de 2023 el grupo híbrido X25519Kyber768 en TLS 1.3 y QUIC, combinando el clásico X25519 con el esquema Kyber-768 de NIST.
AWS tiene un plan de migración a PQC y ya soporta algoritmos híbridos (RSA/EC + ML-KEM) en algunos de sus servicios.
Apple ha introducido el protocolo PQ3, que combina un establecimiento de clave post-cuántica (por ejemplo Kyber) con tres ratchets de autorestauración para proteger las conversaciones contra ataques “Harvest Now, Decrypt Later”. Esta implementación es, según Apple, “el estado del arte global en mensajería post-cuántica a gran escala”, por lo que se desplegó en iOS 17.4 y macOS 14.4.
Sin fecha fija
A diferencia de 1998–2000, no tenemos una fecha exacta en la que la criptografía clásica muera y este es el reto más difícil, pues múltiples organizaciones no le asignan muchos recursos a un problema hasta que tengan una fecha exacta o al menos muy aproximada.
Si se le pregunta a diversas entidades afines al tema las respuestas van desde las más pesimistas que estiman que el Qday está entre 3 a 5 años de materializarse, a otros más optimistas que estiman una década aproximadamente.
Afrontar el reto cuántico implica un diagnóstico exhaustivo, capacitación del personal técnico y planes de migración escalonados. La coexistencia de algoritmos clásicos y post-cuánticos requiere arquitecturas híbridas, pruebas de interoperabilidad y auditorías continuas.
En Cyte, con más de dos décadas de experiencia en soluciones criptográficas empresariales, hemos estado acompañando a nuestros clientes en cada etapa: desde la evaluación de riesgos en sistemas heredados hasta la integración con librerías criptográficas que faciliten la gestión segura de llaves y la inserción de algoritmos post-cuánticos sin interrumpir la operación de la organización.
Por lo anterior, los animo a revisar si en su empresa u organización cuentan con proyectos para migrar los sistemas a versiones que puedan afrontar el reto que se avecina, de forma que, al igual que el Y2K, este solo sea un motivo de parodias jocosas y no un evento de ciberseguridad catastrófico.
Si está interesado en aprender más del tema, el próximo 28 de mayo tendremos la primera sesión del Post-Quantum Security Summit de Cyte®. Durante esta sesión conocerás cómo operan los ataques silenciosos a los canales de comunicación, qué riesgos enfrentan hoy las organizaciones sin saberlo y cómo implementar estrategias de protección con cifrado extremo a extremo y trazabilidad real, antes de que el daño ocurra.
🔗 Regístrate ahora y da un paso adelante frente a las amenazas invisibles: https://lnkd.in/ervkTRjh
Si deseas tener siempre a la mano el artículo escrito por Damián Salcedo, te invitamos a descargarlo, compartirlo y comentarnos qué opinas al respecto.




Comentarios