NoticiasTecnología

IBM y UC Berkeley colaboran en computación cuántica práctica

IBM y UC Berkeley colaboran en computación cuántica práctica

Durante semanas, investigadores de IBM Quantum y UC Berkeley se turnaron para ejecutar simulaciones físicas cada vez más complejas. Youngseok Kim y Andrew Eddins, científicos de IBM Quantum, las probaban en el procesador IBM Quantum Eagle de 127 qubits. Sajant Anand, de la Universidad de Berkeley, intentaría el mismo cálculo utilizando métodos de aproximación clásica de última generación en superordenadores del Laboratorio Nacional Lawrence Berkeley y la Universidad de Purdue. Compararon cada método con un cálculo clásico exacto de fuerza bruta.

Eagle dio siempre respuestas exactas. La observación del rendimiento de ambos paradigmas computacionales a medida que aumentaba la complejidad de las simulaciones hizo que ambos equipos se sintieran seguros de que el ordenador cuántico seguía proporcionando respuestas más precisas que los métodos de aproximación clásicos, incluso en el régimen más allá de las capacidades de los métodos de fuerza bruta. «El nivel de concordancia entre los cálculos cuánticos y clásicos en problemas tan grandes me sorprendió bastante», afirma Eddins. «Espero que sea impresionante para todos».

Ambos colaboraban para comprobar si los ordenadores cuánticos actuales, ruidosos y propensos a errores, servían para calcular resultados precisos en determinados tipos de problemas. Y hoy han publicado los resultados de esa investigación en la portada de Nature. IBM Quantum y UC Berkeley han presentado pruebas de que los ordenadores cuánticos ruidosos podrán aportar valor antes de lo esperado, todo ello gracias a los avances en el hardware de IBM Quantum y al desarrollo de nuevos métodos de mitigación de errores.

Este trabajo nos entusiasma por muchas razones. Se trata de un escenario realista en el que se utilizan procesadores IBM Quantum actualmente disponibles para explorar cálculos significativos y aplicaciones realistas antes de la era de la tolerancia a fallos. Más allá de una simple prueba de principio, ofrecemos resultados lo bastante precisos como para ser útiles. El modelo de computación que exploramos con este trabajo es una faceta central de muchos algoritmos diseñados para dispositivos cuánticos a corto plazo. Y el tamaño de los circuitos -127 qubits que ejecutan puertas cuánticas de 60 pasos- es uno de los más largos y complejos que se han ejecutado con éxito hasta la fecha. Más información sobre los progresos realizados en la mejora del rendimiento del procesador IBM Quantum Eagle en los dos últimos años, aquí.

Y con la certeza de que nuestros sistemas empiezan a ofrecer una utilidad superior a la de los métodos clásicos, podemos iniciar la transición de nuestra flota de ordenadores cuánticos a una formada únicamente por procesadores con 127 qubits o más. Con esta transición, todos nuestros usuarios tendrán acceso a sistemas como los utilizados en esta investigación.

Es importante señalar que no se trata de afirmar que los ordenadores cuánticos actuales superen las capacidades de los ordenadores clásicos: es posible que otros métodos clásicos y ordenadores especializados devuelvan pronto respuestas correctas para el cálculo que estábamos probando. Pero esa no es la cuestión. El continuo vaivén de la cuántica ejecutando un circuito complejo y los ordenadores clásicos verificando los resultados cuánticos mejorará tanto la clásica como la cuántica, al tiempo que proporcionará a los usuarios confianza en las capacidades de los ordenadores cuánticos a corto plazo. «Podemos empezar a pensar en los ordenadores cuánticos como una herramienta para estudiar problemas que serían difíciles de estudiar de otro modo», afirma Sarah Sheldon, Directora de Teoría y Capacidades Cuánticas de IBM Quantum.

Aprender lo que está bien aprendiendo lo que está mal

Ya en 2017, los investigadores de nuestro equipo de IBM Quantum anunciaron un gran avance: simulamos la energía de moléculas pequeñas como Este artículo de portada de Nature, «Hardware-efficient Variational Quantum Eigensolver for Small Molecules and Quantum Magnets», mostró cómo implementar un nuevo algoritmo cuántico capaz de calcular eficientemente el estado de energía más bajo de moléculas pequeñas.hidruro de litio e hidruro de berilio utilizando ordenadores cuánticos. Estas simulaciones fueron emocionantes: hicimos algo con ordenadores cuánticos. Pero no alcanzaban ni de lejos la precisión ni el tamaño que interesaban a los químicos, debido al ruido de nuestros sistemas. Y eso estaba bien. El verdadero avance era que nos hacíamos una idea de por qué estas simulaciones eran erróneas».

Más o menos al mismo tiempo, el equipo publicó un artículo teórico que nos marcó un hito importante. Si pudiéramos entender realmente la causa del ruido, podríamos deshacer sus efectos. Y entonces quizá podríamos extraer información útil de los ordenadores cuánticos ruidosos para ciertos tipos de problemas».

El equipo empezó a jugar y se dio cuenta de que podíamos amplificar los efectos del ruido utilizando las mismas técnicas que empleamos para controlar nuestros qubits mediante una técnica llamada estiramiento de pulsos. Básicamente, si aumentábamos el tiempo necesario para ejecutar operaciones individuales en cada qubit, la cantidad de ruido aumentaría en el mismo factor.

El estiramiento de pulsos permitió al equipo mejorar drásticamente la precisión de nuestras simulaciones LiH con cuatro qubits en 2019. Pero quedaba una pregunta: ¿hasta dónde se podían escalar estos métodos?

La ampliación de estas simulaciones de error mitigado a 26 qubits nos dio a entender que estos métodos podrían producir resultados más cercanos a la respuesta ideal que las aproximaciones que podrían obtenerse eficientemente de un ordenador clásico. Esto sentó las bases de nuestro trabajo actual. Si pudiéramos mejorar la escala y la calidad de nuestro hardware y desarrollar formas de amplificar el ruido con mayor control, quizá podríamos estimar los valores de las expectativas con un grado de precisión tal que pudieran resultar útiles para aplicaciones reales».

Ese avance se convirtió en el artículo que el equipo publicó en arXiv en 2022: Probabilistic Error Cancellation, o PEC. Nos dimos cuenta de que podíamos asumir, basándonos en nuestro conocimiento de la máquina, un modelo de ruido básico. Luego, podíamos aprender ciertos parámetros para crear un modelo representativo del ruido. Y, al repetir el mismo cálculo cuántico muchas veces, podíamos estudiar el efecto de insertar nuevas puertas para anular el ruido o para amplificarlo. Este modelo se ajustaba razonablemente al tamaño del ordenador cuántico: modelar el ruido de un gran procesador ya no era una tarea hercúlea.

«Lo fundamental era poder manipular el ruido más allá del estiramiento del pulso», explica Abhinav Kandala, director de Capacidades y Demostraciones Cuánticas de IBM Quantum. «Una vez que eso empezó a funcionar, pudimos hacer extrapolaciones más complicadas que podían suprimir el sesgo del ruido de una forma que no habíamos podido hacer antes».

Esta amplificación del ruido era la pieza final del rompecabezas. Con un modelo de ruido representativo, se podía manipular y amplificar el ruido con más precisión. A continuación, podíamos aplicar el postprocesamiento clásico para extrapolar a la baja cómo debería ser el cálculo sin ruido, utilizando un método llamado extrapolación de ruido cero, o ZNE (Zero Noise Extrapolation).

Paralelamente, sabemos que la mitigación de errores requiere un hardware potente. Teníamos que seguir avanzando en escala, calidad y velocidad. Con nuestros procesadores IBM Quantum Eagle de 127 qubits, por fin teníamos sistemas capaces de ejecutar circuitos lo bastante grandes como para poner a prueba los métodos clásicos, con mejores tiempos de coherencia y tasas de error más bajas que nunca. Era hora de utilizar la mitigación de errores para poner a prueba nuestros procesadores de última generación.

Poner a prueba la cuántica frente a la clásica

Las técnicas de mitigación de errores como la ZNE no son la panacea. Para aprovechar todo el potencial de la computación cuántica será necesario incorporar redundancia al sistema y permitir que varios qubits trabajen juntos para corregirse entre sí, lo que se denomina corrección de errores. Sin embargo, a través de la mitigación de errores, nos dimos cuenta de que encontramos una forma de producir ciertos tipos de cálculos precisos antes de la era de la corrección de errores a gran escala, incluso con ordenadores cuánticos ruidosos. Y estos cálculos podrían ser útiles.

Sólo necesitábamos probar que nuestras técnicas de mitigación de errores funcionaban realmente. Empezamos ejecutando cálculos cuánticos cada vez más complejos en nuestros procesadores de 127 qubits, y luego comprobamos nuestro trabajo con ordenadores clásicos. Pero somos una empresa de computación cuántica, no deberíamos ser nosotros los que comprobáramos nuestro trabajo con ordenadores clásicos. Necesitábamos expertos externos para verificar que los cálculos eran correctos. Así que recurrimos a la ayuda de Sajant Anand, investigador de posgrado, y Michael Zaletel, profesor asociado de la Universidad de Berkeley, además de Yantao Wu, investigador posdoctoral de RIKEN iTHEMS y residente en la Universidad de Berkeley, que fueron presentados al equipo por un antiguo becario de IBM.

«IBM preguntó a nuestro grupo si nos interesaría asumir el proyecto, sabiendo que nuestro grupo estaba especializado en las herramientas computacionales necesarias para este tipo de experimentos», explica Anand. «Al principio me pareció un proyecto interesante, pero no esperaba que los resultados fueran a ser los que fueron».

Hay varias formas de ejecutar circuitos cuánticos con ordenadores clásicos. La primera son los métodos de «fuerza bruta», que calculan el valor de expectativa de forma similar a como lo haría un estudiante de física a mano. Para ello, primero hay que escribir toda la información sobre la función de onda en una lista y, a continuación, crear una cuadrícula de números (también conocida como matriz) para realizar el cálculo.

Estos métodos se vuelven el doble de difíciles por cada qubit adicional y, por tanto, finalmente no pueden capturar la complejidad de circuitos suficientemente grandes. Pero para un pequeño subconjunto de circuitos cuánticos, existen trucos que nos permiten utilizar el cálculo de fuerza bruta para calcular respuestas exactas, incluso si el circuito utiliza los 127 qubits de IBM Quantum Eagle. Empezaríamos utilizando estos circuitos y métodos para comparar tanto los métodos clásicos como los cuánticos.

Para manejar circuitos más complejos, el equipo de Berkeley utilizó métodos que aproximan la función de onda con menos números utilizando dos métodos diferentes de redes de estados tensoriales (TNS). Estos métodos clásicos de aproximación intentan representar estados cuánticos de muchos qubits como redes de tensores, una forma más compleja de organizar muchos números. Los métodos de red tensorial de estados vienen con un conjunto de instrucciones sobre cómo calcular con esos datos y cómo tomar todos esos datos y recuperar información específica sobre el estado cuántico a partir de ellos, como el valor de expectativa. Estos métodos son una especie de compresión de imágenes, que se deshace de la información menos necesaria en aras de mantener sólo lo que se requiere para obtener respuestas precisas cuando se está limitado por la potencia de cálculo y el espacio. Siguen funcionando incluso después de que fallen los métodos de fuerza bruta.

El experimento sería el siguiente. Utilizaríamos los 127 qubits de nuestro procesador IBM Quantum Eagle para simular el comportamiento cambiante de un sistema que se corresponde de forma natural con un ordenador cuántico, llamado modelo cuántico de Ising. Los modelos Ising son simplificaciones de la naturaleza que representan átomos interactuantes como un entramado de sistemas cuánticos de dos opciones en un campo de energía. Estos sistemas se parecen mucho a los qubits de dos estados que componen nuestros ordenadores cuánticos, lo que los hace idóneos para probar las capacidades de nuestros métodos. Utilizaríamos la ZNE para intentar calcular con precisión una propiedad del sistema denominada magnetización media. Se trata de un valor de expectativa, básicamente una media ponderada de los posibles resultados del circuito.

Simultáneamente, el equipo de la UC Berkeley intentaría simular el mismo sistema utilizando métodos de redes tensoriales con la ayuda de superordenadores avanzados situados en el Centro Nacional de Computación Científica para la Investigación Energética (NERSC) del Laboratorio Nacional Lawrence Berkeley y en la Universidad de Purdue. En concreto, los cálculos se ejecutaron en parte en el superordenador «Cori» del NERSC, en parte en el clúster interno «Lawrencium» del Lawrence Berkeley National Labs y en parte en el superordenador Anvil de Purdue, financiado por la NSF. Después compararíamos los dos métodos con los exactos y veríamos qué tal funcionaban».

Las pruebas implicaban girar varios mandos. Podíamos ejecutar circuitos con más qubits, con más puertas cuánticas o con entrelazamientos más complejos. También podíamos pedir que se calcularan observables de mayor peso (el peso es una medida de cuántos qubits nos interesa medir al final del cálculo, donde un peso menor significa que te interesan menos qubits y un peso mayor significa que te interesan más qubits).

Los métodos cuánticos siguieron coincidiendo con los métodos exactos. Pero los métodos clásicos de aproximación empezaron a fallar a medida que aumentaba la dificultad.

Por último, pedimos a ambos ordenadores que realizaran cálculos más allá de lo que se podía calcular exactamente, y el cuántico nos dio una respuesta que estábamos más seguros de que era correcta. Y aunque no podemos demostrar si esa respuesta era realmente correcta, el éxito de Eagle en las ejecuciones anteriores del experimento nos hizo confiar en que lo era».

Llevar la informática cuántica útil al mundo

La mayoría de los expertos coinciden en que para aprovechar todo el potencial de los ordenadores cuánticos, como ejecutar el algoritmo de Shor para factorizar grandes números en números primos, será necesario corregir los errores. IBM dedica gran parte de su investigación a avanzar en la corrección de errores. Sin embargo, existe un debate sobre si el hardware cuántico a corto plazo puede proporcionar una ventaja computacional para problemas útiles antes de la plena realización de la corrección de errores. Nosotros creemos que sí, y este trabajo nos da buenas razones para creer que los ordenadores cuánticos ruidosos podrán aportar valor antes de la era de la tolerancia a fallos, incluidos los procesadores disponibles hoy en día.

«El quid del trabajo es que ahora podemos utilizar los 127 qubits de Eagle para ejecutar un circuito bastante grande y profundo, y los números salen correctos», afirma Kristan Temme, miembro principal del personal de investigación y director del grupo de Teoría de Algoritmos Cuánticos de IBM Quantum.

Este trabajo es un dato que demuestra que estamos entrando en la era de la ventaja cuántica. Llevamos mucho tiempo diciendo que la ventaja cuántica será un camino continuo, que requerirá dos cosas:
Primero, debemos demostrar que un ordenador cuántico puede superar a un ordenador clásico.
En segundo lugar, debemos encontrar problemas para los que esa aceleración sea útil y averiguar cómo trasladarlos a los qubits.

En este artículo nos encontramos a caballo entre el primer punto y el segundo. Aunque hemos demostrado que un algoritmo cuántico supera a los principales métodos clásicos, esperamos que la comunidad de la computación clásica desarrolle métodos que verifiquen los resultados que presentamos. Y entonces realizaremos cálculos aún más difíciles. Este vaivén es apasionante para nosotros, porque mejora la computación en general.

«Inmediatamente surge la necesidad de nuevos métodos clásicos», afirma Anand. Y ya están estudiando esos métodos. «Ahora nos preguntamos si podemos tomar el mismo concepto de mitigación de errores y aplicarlo a las simulaciones clásicas de redes tensoriales para ver si podemos obtener mejores resultados clásicos».

Mientras tanto, para los investigadores cuánticos, «esto fue una especie de proceso de aprendizaje», dijo Kim. «¿Cómo optimizamos nuestra estrategia de calibración para hacer funcionar circuitos cuánticos como estos? ¿Qué podemos esperar y qué tenemos que hacer para mejorar las cosas de cara al futuro? Fueron cosas agradables que descubrimos por el camino mientras ejecutábamos el proyecto».

Esta investigación es apasionante para nosotros porque no sólo los ordenadores clásicos demostraron que nuestras complejas simulaciones cuánticas eran exactas, sino que los métodos de simulación clásica, aproximados y escalables, produjeron resultados en cuya exactitud confiábamos menos que en la del ordenador cuántico.

«Este trabajo nos da la posibilidad de utilizar un ordenador cuántico como herramienta de verificación de los algoritmos clásicos», explica Anand. «Es darle la vuelta al guión de lo que se suele hacer».

Aunque no podemos demostrar que las respuestas cuánticas fueran correctas para los circuitos más avanzados que probamos, estamos confiando en que los ordenadores cuánticos aportaran un valor superior al de los ordenadores clásicos para este problema.

Confiamos lo suficiente en estos sistemas, además de en la mitigación de errores, que tenemos previsto actualizar nuestra flota para centrarnos en procesadores con 127 qubits o más en los próximos años. La transición significa que todos nuestros usuarios podrán explorar aplicaciones en sistemas que pueden superar a los métodos clásicos más avanzados de la actualidad. Incluso nuestros usuarios de plan abierto tendrán acceso limitado en el tiempo a sistemas de 127 qubits. Queremos que todos los usuarios de IBM Quantum puedan ejecutar circuitos como los utilizados en este artículo.

Nuestras instalaciones de IBM Quantum System One en la Universidad de Tokio, el Instituto Fraunhofer y la Clínica Cleveland, y las instalaciones en curso en la Universidad de Yonsei, la Fundación Ikerbasque y Quebec dispondrán pronto de procesadores IBM Quantum Eagle de 127 qubits para que también puedan explorar la era de la utilidad con nosotros.

Es un momento importante para la comunidad cuántica. A medida que la cuántica empieza a proporcionar utilidad, creemos que está lista para ser explorada por un nuevo grupo de usuarios, aquellos que utilizan la computación de alto rendimiento para resolver problemas difíciles, como los que se muestran en este artículo. Estamos deseosos de conocer su opinión. Mientras tanto, también estamos formando grupos de trabajo en torno a estas interesantes noticias, colaboraciones entre IBM y nuestros socios para investigar casos de uso de los procesadores cuánticos a corto plazo en ámbitos como la sanidad, las ciencias de la vida o el aprendizaje automático.

Y les animamos a explorar circuitos con errores mitigados que incorporen 127 qubits o más, mientras nos preparamos para ofrecerles procesadores capaces de devolver valores de expectativas precisos para circuitos de 100 qubits por 100 de profundidad de puerta en menos de un día de tiempo de ejecución para finales de 2024.

Para que la computación cuántica sea útil para el mundo es necesario que todos trabajemos juntos. Estamos impacientes por ver cómo este trabajo inspirará a los desarrolladores, a la IBM Quantum Network y a la comunidad cuántica en general para seguir impulsando este campo».

Carlos Cantor

Carlos Cantor

GeekAdicto
Ingeniero industrial apasionado por la tecnología. Colombiano amante de la cerveza. Adicto a los E-sports.