AlphaQubit: redes neuronales para computación cuántica


La computación cuántica es uno de los anhelos científicos y tecnológicos que impactarán más a nuestra sociedad, no solo ofrece las muy conocidas ventajas en la velocidad procesamiento sino también reduce sustancialmente el consumo de recursos. La aceleración que tendrán proyectos de investigación relacionados con la salud, la ciencia de materiales e inclusive la inteligencia artificial es gigantesca.
En la actualidad existen numerosas grandes compañías como Google, IBM, Amazon, Intel Corporation, Microsoft, etc... compitiendo por la supremacía cuántica. Uno de los grandes retos que enfrentan estas compañías es la capacidad de corregir errores en el procesamiento.

Le agradecemos mucho a Pablo Conte quien ha sido estudiante, becario y ahora profesor en el Colegio de Matemáticas Bourbaki por su contribución a nuestro Bourbakisme. Pablo está por graduarse de su Maestría sobre Computación Cuántica y Tecnologías Cuánticas en el Democritus University of Thrace - (D.U.Th.) y aprovechamos este espacio para felicitarlo.
AlphaQubit
En el articulo "Learning high-accuracy error decoding for quantum processors" Google aborda el desarrollo de un sistema basado en redes neuronales recurrentes y transformers para mejorar la corrección de errores en procesadores cuánticos utilizando el código de superficie, una técnica líder en corrección de errores cuánticos. Este sistema, llamado AlphaQubit, utiliza métodos de aprendizaje automático para superar los algoritmos diseñados manualmente en la decodificación de información de errores en qubits físicos.
Es una arquitectura neuronal que mejora el rendimiento de decodificadores previos en datos reales y simulados. Utiliza un enfoque de entrenamiento en dos etapas: pre-entrenamiento con datos simulados y ajuste fino con datos experimentales.

Se inspira en las técnicas avanzadas de aprendizaje automático utilizadas en procesamiento de secuencias y representación contextual, como las que encontramos en modelos populares de lenguaje como GPT o BERT, pero adaptadas al contexto de la corrección de errores cuánticos. Técnicamente, mejora la supresión de errores en los experimentos realizados con el procesador Sycamore de Google. A su vez escala a distancias de código más grandes (hasta 11) y maneja ruido complejo, incluidos efectos de fuga (leakage) y crosstalk. Por otro lado, adopta entradas analógicas de lectura suave ("soft readouts") para manejar mejor la incertidumbre en las mediciones.
Google describe un rendimiento performante superando a los decodificadores tradicionales como el Minimum-Weight Perfect Matching (MWPM) y a métodos más avanzados como los basados en redes tensoriales. Ha demostrado ser efectivo en códigos de superficie de mayor distancia (hasta 11), lo que indica su capacidad para adaptarse a sistemas cuánticos más grandes.
El código de superficie
Los Qubits que forman a las computadoras cuánticas son frágiles y sus estados pueden ser perturbados por muchos factores que van desde el calor hasta la radiación cósmica. Notemos que este tipo de problemas no ocurren para las computadoras normales o por lo menos no en esta escala.

El codigo de superficie es un tipo de código de corrección de errores cuánticos que protege la información cuántica de los errores introducidos por la decoherencia, ruido y fallos en los qubits. Es ampliamente utilizado en la computación cuántica debido a su robustez y su implementación práctica en sistemas con conectividad plana, como las arquitecturas de qubits superconductores. Los principios básicos son:
Redundancia mediante qubits físicos
- La información cuántica (qubit lógico) se codifica en una red de múltiples qubits físicos dispuestos en una malla bidimensional.
- Esto permite detectar y corregir errores midiendo propiedades específicas de los qubits físicos.
Estabilizadores
- Se definen operadores estabilizadores X y Z en regiones específicas de la malla, los cuales se miden periódicamente para identificar errores.
- Un estabilizador no mide directamente el estado del qubit lógico, sino errores en los qubits físicos que afectan al estado lógico.
Distancia del código
- Es la longitud mínima de un camino de errores que puede transformar el estado lógico sin ser detectado por los estabilizadores.
- Cuanto mayor sea la distancia del código, más qubits se necesitan, pero también mayor será la tolerancia al error.
Corrección de errores:
- A partir de las mediciones de los estabilizadores, se construye un "síndrome" que identifica las ubicaciones de los errores.
- Luego, un decodificador interpreta este síndrome y determina las correcciones necesarias para restaurar el estado lógico.
¿Dónde aprender más?
En el Colegio de Matemáticas Bourbaki enseñamos con detalle las matemáticas de los distintos aspectos de la Ciencia de Datos y la Inteligencia Artificial. Todos los perfiles y necesidades son bienvenidos. Pueden revisar información en las páginas Track de Finanzas Cuantitativas & AI y Track de Ciencia de Datos.
Compartimos con ustedes algunos de nuestros temarios de cursos por iniciar:
- Track de Ciencia de Datos. (49 semanas).
- Machine Learning & AI for the Working Analyst ( 12 semanas).
- Matemáticas para Ciencia de Datos ( 24 semanas).
- Especialización en Deep Learning. (12 semanas).
- Track de Finanzas Cuantitativas (49 semanas)
- Aplicaciones Financieras De Machine Learning E IA ( 12 semanas).
- Las matemáticas de los mercados financieros (24 semanas).
- Deep Learning for Finance (12 semanas).