Los ordenadores cuánticos llevan tiempo instalados en ese territorio incómodo donde las promesas conviven con las limitaciones físicas más básicas. Sabemos que pueden calcular de formas que desafían a la informática clásica, pero también que llevar esas capacidades al mundo real sigue siendo un reto enorme. No basta con que un sistema sea capaz de realizar operaciones complejas; tiene que hacerlo de forma fiable y, sobre todo, consistente a lo largo del tiempo.
Uno de los grandes problemas conocidos de los ordenadores cuánticos tiene que ver precisamente con los errores. A diferencia de lo que ocurre en los sistemas clásicos, donde los fallos suelen ser independientes y relativamente fáciles de aislar, en estos dispositivos los errores tienden a comportarse de forma mucho más compleja. Con el paso del tiempo, no solo aparecen, sino que influyen unos en otros, afectando al comportamiento global del sistema y limitando su fiabilidad.
Un nuevo estudio internacional, liderado desde Australia, ha conseguido arrojar luz sobre este fenómeno. Por primera vez, los investigadores han logrado reconstruir de forma completa cómo evolucionan los errores dentro de un ordenador cuántico a lo largo del tiempo. El avance no consiste en eliminar esos fallos, sino en entender su dinámica temporal, algo que hasta ahora resultaba extremadamente difícil de observar en hardware real.
La clave del hallazgo es que los errores no son eventos aislados ni puramente aleatorios. Según explican los autores, pueden persistir, evolucionar e incluso enlazarse entre distintos momentos del proceso de cálculo. En los ordenadores cuánticos, esto se traduce en que el sistema conserva una especie de “memoria” de errores pasados, que condiciona su comportamiento futuro. Esa memoria puede ser de naturaleza clásica o cuántica, lo que añade aún más complejidad al problema.
Para llegar a esta conclusión, el equipo desarrolló un método que permite reconstruir la evolución completa de un proceso cuántico en múltiples instantes temporales. Los experimentos se llevaron a cabo en procesadores cuánticos superconductores de última generación, tanto en laboratorios universitarios como a través de plataformas comerciales en la nube. El principal obstáculo hasta ahora era que medir un sistema cuántico a mitad de un proceso altera su estado, impidiendo continuar el experimento de forma controlada.
El nuevo enfoque sortea esa limitación mediante un ingenioso tratamiento de los datos. En lugar de depender del resultado concreto de cada medición intermedia, los investigadores reconstruyen posteriormente el estado del sistema mediante software. Gracias a ello, han podido detectar patrones sutiles pero relevantes de errores correlacionados, incluso en los ordenadores cuánticos más avanzados disponibles en la actualidad.
Este avance no resuelve el problema de los errores, pero sí supone un paso crucial para afrontarlo. Comprender cómo y por qué los fallos persisten en el tiempo permitirá desarrollar mejores modelos de error y estrategias de corrección más eficaces, algo imprescindible si se quiere escalar los ordenadores cuánticos y hacerlos realmente útiles fuera del laboratorio.
Al final, este trabajo recuerda una lección fundamental: en la computación cuántica no basta con calcular bien durante un instante. El verdadero desafío está en mantener el control del sistema a lo largo del tiempo. Entender por qué los errores no desaparecen, sino que dejan huella, es un paso necesario para que los ordenadores cuánticos empiecen, por fin, a cumplir sus promesas.
Más información
La entrada Descubren por qué los errores “persisten” en los ordenadores cuánticos se publicó primero en MuyComputer.

