Anuncian “la primera arquitectura de referencia de supercomputación centrada en tecnología cuántica”

Loading

Aunque la computación cuántica ha superado la etapa de ‘curiosidad científica’ no ha alcanzado la fase de uso general y tolerancia a fallos. Según los investigadores, esto requiere el uso conjunto de ordenadores cuánticos y computación clásica de alto rendimiento (HPC). Cuando se combinan, pueden procesar algoritmos y flujos de trabajo emergentes, y realmente escalar aplicaciones del mundo real. Con este fin, IBM ha publicado lo que denomina la primera arquitectura de referencia de supercomputación centrada en la cuántica (QCSC) del sector. El nuevo proyecto describe cómo los sistemas cuánticos y clásicos pueden funcionar en un mismo entorno informático para abordar retos científicos que “ningún enfoque informático puede resolver por sí solo”, sostiene la empresa.

Este enfoque híbrido es prometedor, pero, como ocurre con cualquier tecnología emergente, aún existen retos. “Hay una gran diferencia entre el hardware cuántico y el hardware clásico, y hay que encontrar la manera de hacer que ambos encajen”, señala Paul Smith-Goodson, vicepresidente y analista principal de Moor Insights & Strategy. “Es como intentar hacer funcionar un Tesla con un motor de gasolina”.

Combinación de tecnologías

La arquitectura de IBM integra procesadores cuánticos (QPU) con entornos de supercomputación modernos que comprenden clústeres de GPU y CPU, redes de alta velocidad y almacenamiento compartido entre sistemas locales, la nube y centros de investigación. Según la empresa, este flujo de trabajo coordinado puede soportar cargas de trabajo computacionalmente intensivas e investigación de algoritmos.

La infraestructura también integra marcos de orquestación y de código abierto, como Qiskit, un kit de desarrollo de software (SDK) basado en Python para programar ordenadores cuánticos. Esto significa que los desarrolladores y científicos pueden acceder a la cuántica a través de herramientas y flujos de trabajo con los que están familiarizados.

Los ordenadores cuánticos y los HPC clásicos son tradicionalmente “sistemas dispares [que] funcionan de forma aislada”, explican los investigadores de IBM en un nuevo artículo. Esto puede resultar “engorroso”, ya que los usuarios tienen que orquestar manualmente los flujos de trabajo, coordinar la programación y transferir datos entre sistemas, lo que dificulta la productividad y limita “gravemente” la exploración algorítmica.

Sin embargo, un enfoque híbrido puede simplificar el proceso de aplicación de la computación cuántica a problemas en áreas como la química, la ciencia de los materiales y la optimización, y “resolver problemas que antes estaban fuera de nuestro alcance”, afirman desde IBM.

Los investigadores describen la supercomputación centrada en la cuántica (QCSC) como una evolución a través de tres fases distintas: los sistemas cuánticos como motores especializados de descarga de computación dentro de entornos HPC; los sistemas HPC cuánticos y clásicos acoplados a través de middleware avanzado; y los sistemas HPC y cuánticos totalmente codiseñados para flujos de trabajo híbridos.

La primera fase se centra en establecer “una integración fundamental en múltiples dimensiones”, explican los investigadores. La segunda fase se centra en reducir la latencia, crear múltiples mecanismos de retroalimentación sofisticados y dar soporte a algoritmos híbridos complejos. La tercera fase representa la “culminación” de la integración a través de “sistemas heterogéneos totalmente codiseñados en los que los recursos cuánticos y clásicos se diseñan desde cero como plataformas unificadas”.

Esta última fase refleja la trayectoria de las GPU en los sistemas HPC, señalan los investigadores; las primeras GPU solían funcionar como aceleradores externos conectados a los procesadores host. Pero luego se establecieron interconexiones entre las GPU y las CPU, y entre las GPU, para proporcionar un ancho de banda mucho mayor y una latencia menor. “De manera similar, los sistemas cuánticos pasarán de ser unidades independientes a componentes totalmente integrados dentro de plataformas cuánticas-HPC diseñadas conjuntamente”, afirman los investigadores.

IBM desvela que los científicos ya están utilizando su arquitectura centrada en la cuántica para ofrecer “resultados precisos para experimentos reales”. Esto incluye la simulación de uno de los modelos moleculares más grandes por parte de la Clínica Cleveland; la creación y verificación de una molécula de medio Möbius, la primera de su clase, con una estructura electrónica inusual; y una de las simulaciones más grandes de clústeres de hierro y azufre, una molécula fundamental en biología y química.

Retos de lo clásico y lo cuántico

IBM ha estado impulsando agresivamente la cuántica y parece tener el “plan más definido hasta ahora”, apunta Smith-Goodson. Otros gigantes tecnológicos, como IonQ, Google, Microsoft y Amazon, también están lanzando hojas de ruta cuánticas, mientras que empresas más especializadas, como Quantinuum, QuEra Computing y Xanadu, están explorando técnicas novedosas.

El tipo de superordenador centrado en la cuántica de IBM probablemente será el estándar durante algún tiempo, dice Smith-Goodson. “No es solo algo independiente, sino que va a estar realmente potenciado entre los dos”. El ordenador cuántico tendrá que ser más tolerante a los fallos, para que pueda funcionar incluso en presencia de errores, ya que estará conectado permanentemente al superordenador, agrega.

En los algoritmos que utilizan tanto el procesamiento clásico como el cuántico, cada tecnología desempeña su propio papel en un bucle de respuesta. Por ejemplo, el componente clásico asumirá los parámetros y los enviará al cuántico; el cuántico ejecutará un circuito, medirá el resultado y lo devolverá; el clásico lo actualizará y enviará aún más parámetros para la siguiente ronda. “Van y vienen hasta que finalmente obtienen una buena respuesta”, explica Smith-Goodson. En última instancia, la mayoría de los problemas no son 100% cuánticos, señala; la cuántica puede realizar cálculos muy sofisticados, pero gran parte del resto del trabajo permanece en el lado clásico, que tiene que hacer “mucho trabajo pesado” en áreas como la corrección de errores, con confianza.

Sin embargo, uno de los grandes retos de estos entornos híbridos es la velocidad, ya que la cuántica es mucho más rápida. La nube no es óptima, porque la latencia de la red puede ser “miles de veces mayor” que las necesidades de ejecución de la computación cuántica, indica Smith-Goodson.

Sin embargo, en última instancia, aunque todavía hay muchos retos con la computación cuántica, la industria está “trabajando en ellos”, como lo demuestra el nuevo marco de IBM, afirma el analista. “Me alegra ver que esto finalmente se ha publicado en arXiv y se ha expuesto para que tengamos una buena idea de lo que pretenden hacer. Cada vez estamos más cerca, y tenemos que conseguir la tolerancia a fallos. Y creo que esto es lo siguiente en la agenda”.

(computerworld.es)

Seguiremos brindándote más información sobre este tema en las siguientes presentaciones físicas y digitales de Channel News Perú

Mantente conectado a nuestra plataforma de negocios y revista, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario

Digiqole Ad
...

Notas Relacionadas