Cuando los expertos de la industria hablan sobre un futuro en el que las computadoras cuánticas son capaces de resolver problemas que las computadoras clásicas binarias no pueden, se refieren a algo llamado “ventaja cuántica.”
Para lograr esta ventaja, las computadoras cuánticas necesitan ser lo suficientemente estables como para escalar en tamaño y capacidad. En general, los expertos en computación cuántica creen que el mayor impedimento para la escalabilidad en los sistemas de computación cuántica es el ruido.
El artículo de investigación del equipo de Harvard, titulado “Procesador cuántico lógico basado en matrices de átomos reconfigurables,” describe un método mediante el cual los procesos de computación cuántica pueden ejecutarse con resistencia a errores y la capacidad de superar el ruido.
Según el artículo:
“Estos resultados anuncian el advenimiento de la computación cuántica corregida de errores temprana y trazan un camino hacia procesadores lógicos a gran escala”.
Qubits ruidosos
Los expertos se refieren al estado actual de la computación cuántica como la era Cuántica Intermedia de Escala Ruidosa (NISQ, por sus siglas en inglés). Esta era se define por computadoras cuánticas con menos de 1,000 qubits (la versión cuántica de un bit de computadora) que son, en su mayoría, “ruidosas”.
Los qubits ruidosos son un problema porque, en este caso, significa que son propensos a fallas y errores.
El equipo de Harvard afirma haber alcanzado “computaciones cuánticas corregidas de errores tempranas” que superan el ruido a escalas nunca antes vistas. Según su artículo, aún no han logrado una corrección completa de errores, al menos no como la mayoría de los expertos probablemente la verían.
Errores y medidas
La computación cuántica es difícil porque, a diferencia de un bit de computadora clásico, los qubits básicamente pierden su información cuando se miden. Y la única forma de saber si un qubit físico dado ha experimentado un error en el cálculo es medirlo. Th
La corrección completa de errores implicaría el desarrollo de un sistema cuántico capaz de identificar y corregir errores a medida que surgen durante el proceso computacional. Hasta ahora, estas técnicas han demostrado ser muy difíciles de escalar.
Lo que hace el procesador del equipo de Harvard, en lugar de corregir errores durante los cálculos, es agregar una fase de detección de errores de postprocesamiento donde se identifican y rechazan los resultados erróneos.
Esto, según la investigación, proporciona un camino completamente nuevo y quizás acelerado para escalar las computadoras cuánticas más allá de la era NISQ y hacia el ámbito de la ventaja cuántica.
Aunque el trabajo es prometedor, un comunicado de prensa de DARPA indicó que se necesitará al menos un orden de magnitud mayor que los 48 qubits lógicos utilizados en los experimentos del equipo para "resolver cualquier problema importante previsto para las computadoras cuánticas”.
Los investigadores afirman que las técnicas que han desarrollado deberían ser escalables a sistemas cuánticos con más de 10,000 qubits.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.