El dilema de la tecnología cuántica: ¿Corriendo hacia la realidad o estancados en la hipérbole?

4.561 Visitas Totales , 11 Visitas Hoy
Por Owen Rogers, director de investigación en la nube en Uptime Institute

Los comunicados de prensa de los proveedores de computación cuántica suelen insinuar, con gran bombo y platillo, que sus últimos avances marcan un punto de inflexión en la investigación. Esto suele provocar una oleada de respuestas de las empresas competidoras, cada una intentando demostrar al mercado que están logrando el progreso más rápido.

Sin embargo, el hecho es que no hay garantías de que una computadora cuántica práctica sea siquiera posible. Si bien los investigadores mantienen la esperanza, cada aumento de escala y cada nueva tecnología plantea nuevos desafíos que requieren solución.

Si no hay un producto real a la vista, ¿por qué anunciar nada?

Una razón importante es que los investigadores demuestren sus avances y que aportan valor. La investigación en computación cuántica requiere una inversión considerable, y el retorno de la inversión será sustancial si una computadora cuántica puede resolver problemas que antes se consideraban irresolubles. Sin embargo, este retorno no está garantizado, ni tampoco el plazo para que una computadora cuántica útil sea factible.

Para seguir recibiendo financiación y respaldo para lo que, en última instancia, es una apuesta arriesgada, los investigadores deben demostrar su progreso a sus jefes, inversores y grupos de interés. Cuando una empresa anuncia un avance, otras se ven obligadas a seguir el ejemplo o corren el riesgo de ser percibidas como rezagadas.

Los anuncios sobre computación cuántica también tienen un alcance más amplio: un efecto halo que refuerza la imagen de una empresa como innovadora y con visión de futuro. Algunas de las empresas que afirman ser pioneras en la investigación de la computación cuántica, como Google, Amazon y Microsoft, quieren ser vistas como pioneras tecnológicas; ser revolucionario es un aspecto clave de su identidad de marca. Si la computación cuántica se vuelve práctica, una reputación consolidada podría contribuir al éxito comercial.

La investigación continúa

Los bits cuánticos (cúbits) son los componentes básicos del lenguaje mediante el cual se almacena y manipula la información en una computadora cuántica: cuantos más cúbits, mayor será la combinación de valores que la computadora puede usar para sus cálculos. Resolver problemas computacionales reales con algoritmos cuánticos requiere muchos cúbits útiles (que contengan la información cuántica correcta).

Desafortunadamente, a medida que aumenta el número de cúbits, también aumenta la complejidad de los errores debido al ruido cuántico y a problemas de control de circuitos. El desarrollo de computadoras cuánticas tolerantes a fallos (es decir, fiables, en el lenguaje de la computación clásica) libres de errores computacionales con miles de cúbits es el objetivo principal de la investigación en computación cuántica.

A pesar de estas dificultades fundamentales, la naciente industria de la computación cuántica parece más pujante que nunca. A partir de diciembre de 2024, varias empresas importantes anunciaron avances de investigación en rápida sucesión, en concreto, relacionados con la reducción de errores al gestionar más cúbits y una mayor potencia de cálculo.

Google presentó el procesador Willow, un chip superconductor de computación cuántica de 105 cúbits que reduce exponencialmente los errores a medida que aumenta el número de cúbits. Willow completó un cálculo de referencia (la emulación de circuitos cuánticos) en menos de cinco minutos. Según Google, esta tarea tardaría a las supercomputadoras actuales 10 septillones de años, miles de millones de veces más que la edad del universo.

Posteriormente, Microsoft anunció Majorana 1, el primer chip cuántico del mundo impulsado por una arquitectura de núcleo topológico. Este desarrollo aprovecha las cuasipartículas de Majorana, que se comportan como sus propias antipartículas, para crear cúbits resistentes a errores.

Amazon siguió con la presentación de su primer chip de computación cuántica, Ocelot. Este chip aprovecha la corrección de errores cuánticos bosónicos mediante «cat cúbits», un novedoso enfoque diseñado para reducir significativamente los recursos necesarios para la corrección de errores, reduciéndolos potencialmente hasta en un 90% en comparación con los métodos tradicionales.

A continuación, D-Wave Quantum anunció que su computadora cuántica había superado a una de las supercomputadoras clásicas más potentes del mundo en la resolución de simulaciones complejas. La compañía afirma que su computadora cuántica de recocido realizó simulaciones de materiales magnéticos en minutos, tareas que tardarían casi un millón de años y consumirían más energía que el consumo eléctrico anual mundial si se resolvieran con una supercomputadora clásica construida con clústeres de GPU.

Más recientemente, Q-CTRL, en colaboración con Nvidia y Oxford Quantum Circuits, afirmó una reducción significativa en los costos de computación clásica mediante el uso de GPU aceleradas para la supresión de errores cuánticos.

Más allá de las innovaciones técnicas, se observa un creciente interés gubernamental, académico y empresarial. IBM y el Gobierno Vasco anunciaron sus planes de instalar el primer IBM Quantum System Two de Europa en el Centro de Computación Cuántica IBM-Euskadi. Además, IBM inauguró recientemente un nuevo centro de datos cuántico y una región de nube en Alemania.

El valor de los anuncios

Tan pronto como se hacen estos anuncios, científicos e investigadores los analizan minuciosamente en busca de debilidades e hipérboles. Los parámetros utilizados para estas pruebas son objeto de un intenso debate, y muchos críticos argumentan que los cálculos no constituyen problemas prácticos o que el éxito en un problema no implica una aplicabilidad más amplia. En el caso de Microsoft, la falta de datos revisados ??por pares implica incertidumbre sobre si la partícula de Majorana existe más allá de la teoría.

El método científico fomenta el debate y la repetición, con el objetivo de alcanzar un consenso sobre la verdad. Sin embargo, en la computación cuántica, la publicidad exagerada y la necesidad de demostrar avances priman sobre la verificación de las afirmaciones, lo que dificulta contextualizar estos anuncios en el contexto general.

¿Debería la industria de los centros de datos prepararse para la computación cuántica? Probablemente sea demasiado pronto para considerar la computación cuántica para aplicaciones comerciales. Se están logrando avances, aunque lentamente. Incluso si se crea una computadora cuántica práctica, tardará años en generalizarse. Será necesario verificar las afirmaciones, fabricar hardware y desarrollar cadenas de suministro. Además, es probable que los gobiernos intervengan debido a las posibles implicaciones para la seguridad nacional.

Según los expertos consultados por Uptime Institute, una computadora cuántica útil aún está, al menos, a una década de distancia. Cuando este analista abordó por primera vez la computación cuántica en 2017, los expertos decían exactamente lo mismo. Lo cierto es que nadie lo sabe con certeza.

(datacenterdynamics.com)

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Soluciones y productos de infraestructura para edificios y ciudades inteligentes (Sistemas BIM y BMS), POL (Passive Optical LAN). Seguridad integrada, video vigilancia y control de acceso. Casos de uso y aplicabilidad de cada solución y producto, incluyendo la colaboración digital (relacionado a realidad virtual sistema BIM) (Gemelos digitales). Buenas prácticas ambientales.», que estamos preparando para nuestra edición 216 y publicaremos en el mes de julio.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Digiqole Ad
...

Notas Relacionadas