Por qué Microsoft sigue apostando por Majorana, su chip de computación cuántica

Loading

En febrero pasado, Microsoft anunció su nuevo chip Majorana 1, lo que generó un gran revuelo entre los investigadores de la computación cuántica. Mientras IBM planeaba un sistema de 1 386 cúbits y Google había demostrado una corrección de errores revolucionaria con 105 cúbits, el chip de Microsoft apenas alcanzaba ocho cúbits.

El expediente de revisión por pares del artículo publicado en Nature incluía una nota inusual del departamento editorial, en la que se señalaba que el trabajo no aportaba pruebas de los aspectos técnicos fundamentales del nuevo chip. Esto provocó que el anuncio fuera recibido con escepticismo, más que con emoción.

La razón detrás del número inusualmente bajo de cúbits de Microsoft, en comparación con otras compañías, es su estrategia de más de 20 años centrada en el uso de «cúbits topológicos», una tecnología que almacena la información cuántica en la estructura geométrica de la materia, en lugar de hacerlo en partículas individuales. En teoría, este enfoque es robusto frente al ruido local. En otras palabras, en lugar de agrupar cientos de cúbits propensos a errores para realizar corrección de errores, la idea es crear cúbits resistentes desde el principio.

En el centro de esta teoría se encuentra la partícula de Majorana, propuesta por el físico italiano Ettore Majorana en 1937. Estas partículas tienen la propiedad única de ser sus propias antipartículas y se cree que aparecen como cuasipartículas en ciertos fenómenos superconductores. Una cuasipartícula es un fenómeno en el que el comportamiento colectivo de electrones o átomos en un sólido se manifiesta como si se tratara de una sola partícula.

Modo cero de Majorana producido por superconductores

El superconductor topológico desarrollado por Microsoft para Majorana 1 es un nuevo material con propiedades topológicas distintas de las de los superconductores ordinarios. Cuando una heteroestructura, una estructura formada por la superposición de distintos materiales, compuesta por arseniuro de indio y aluminio a nivel atómico se enfría casi hasta el cero absoluto y se le aplica un campo magnético, aparecen cuasipartículas en un estado de energía cero, denominado «modo cero de Majorana», en ambos extremos del nanoalambre. Un bit cuántico con forma de H, llamado tetrón, está compuesto por cuatro de estas cuasipartículas.

El tetrón mide apenas 10 micrómetros cuadrados. Es aproximadamente 100 veces más pequeño que un cúbit superconductor convencional, y Microsoft afirma que un millón de tetrónes podrían caber en un chip del tamaño de la palma de la mano. Además, la compañía sostiene que un código especial de corrección de errores, llamado «código Hastings-Haah Floquet», reduce la sobrecarga, la cantidad de cúbits adicionales necesarios para la corrección de errores, en un factor de diez en comparación con los códigos de superficie convencionales.

Si esto se materializa, mientras que IBM y Google necesitarían miles de cúbits físicos para construir un cúbit lógico, Microsoft solo requeriría unos pocos cientos. El mayor desafío al que se enfrentan las computadoras cuánticas actuales es un fenómeno conocido como «decoherencia cuántica», en el que la información cuántica se pierde debido al ruido ambiental, como variaciones de temperatura, ondas electromagnéticas o vibraciones. Los cúbits superconductores y los cúbits de iones atrapados, un método en el que los iones se mantienen suspendidos mediante campos eléctricos o magnéticos, presentan tasas de error de entre el 0.1% y el 1%, muy por encima del umbral inferior al 0.01 % requerido para computadoras cuánticas prácticas.

Para superar esta brecha, la mayoría de las empresas recurre a la corrección de errores cuánticos, que utiliza grandes cantidades de cúbits físicos para construir cúbits lógicos virtuales y aplica códigos complejos para cancelar el ruido. El enfoque de Microsoft es distinto: en los cúbits topológicos, la información cuántica se distribuye de forma no local, lo que los hace menos susceptibles al ruido local y, en teoría, inherentemente más robustos frente a la decoherencia, ya que la banda prohibida del aislante topológico protege el estado cuántico.

Además, Microsoft utiliza una técnica conocida como computación cuántica basada en mediciones. Este método realiza cálculos a través de mediciones, en lugar de las operaciones de puerta convencionales sobre cúbits. La operación a alta velocidad es posible combinando dos mediciones básicas, X y Z. En una etapa inicial, el número de cúbits será reducido, pero una vez establecido el sistema, existe potencial para un escalamiento exponencial.

La retractación de un artículo generó desconfianza

Sin embargo, la visión de Microsoft arrastra antecedentes problemáticos. En abril de 2018, un equipo de investigación apoyado por la compañía en la Universidad Tecnológica de Delft publicó un artículo en el que afirmaba haber encontrado pruebas claras de la existencia de la partícula de Majorana. Esto generó una enorme expectación en el sector, y Microsoft llegó a vislumbrar la posibilidad de ofrecer una computadora cuántica comercial en un plazo de cinco años.

No obstante, cuando Sergey Frolov, profesor de la Universidad de Pittsburgh, y Vincent Mourik, de la Universidad de Nueva Gales del Sur, realizaron su propio análisis de los datos, detectaron graves incoherencias lógicas. Señalaron que parte de los datos no publicados ponían en duda la afirmación de que la partícula de Majorana hubiera sido observada. El artículo fue posteriormente retractado en marzo de 2009 por falta de rigor científico. Se reveló que algunos datos habían sido excluidos de forma arbitraria y que ciertas etiquetas de los ejes eran incorrectas. Este episodio sembró desconfianza en torno a la investigación cuántica de Microsoft en su conjunto.

En este contexto, el anuncio de Majorana 1 generó una fuerte sensación de déjà vu entre los investigadores. Aunque el comunicado de prensa afirmaba haber logrado el primer cúbit cuántico topológico del mundo, el artículo solo demostraba la existencia de una fase topológica, un estado de la materia con propiedades topológicas, y seguía sin aportar pruebas concluyentes de la existencia de la partícula de Majorana.

Las preocupaciones también se extienden a la fiabilidad de los datos presentados. Kim Una, de la Universidad de Cornell, señaló problemas relacionados con el carácter ruidoso de los datos de las mediciones X. Javad Shabani, de la Universidad de Nueva York, afirmó: «Puede que sea algún tipo de cúbit, pero no veo pruebas de que sea incontrolado y topológico». Por su parte, Henry Legg, de la Universidad de St Andrews, concluyó que el método empleado por Microsoft para verificar la fase topológica podría producir falsos positivos, ya que señales similares pueden imitarse en sistemas no topológicos.

El problema de la tasa de error también es significativo. Según un documento adicional publicado por Microsoft en julio de 2025, la tasa de error de las mediciones X alcanza el 16%, muy lejos del objetivo necesario para un uso práctico. Incluso las mediciones Z presentan una tasa del 0.5%. Además, el tiempo durante el cual puede mantenerse un estado cuántico en una medición X, el tiempo de coherencia, es de apenas 14.5 microsegundos, insuficiente para realizar cálculos cuánticos complejos.

La computación cuántica topológica lleva entre 20 y 30 años de retraso respecto a otras plataformas, explica Winfried Hensinger, de la Universidad de Sussex. Es posible que, para cuando Microsoft logre desarrollar cúbits topológicos funcionales, los cúbits superconductores y los de iones atrapados ya estén en uso práctico y dominen el mercado.

Aun así, hay quien valora el reto de Microsoft

Scott Aaronson, informático de la Universidad de Texas, afirma que «si las afirmaciones de Microsoft se cumplen, será un hito científico no solo para la computación cuántica topológica, sino para la física en general». Hensinger también valora positivamente la disposición de Microsoft a adentrarse en un campo de investigación de alto riesgo y alto coste. Ivar Martin, del Laboratorio Nacional Argonne, reconoce asimismo los esfuerzos corporativos de la compañía y destaca el logro desde el punto de vista de la ingeniería y la fabricación de materiales.

La hoja de ruta de Microsoft es ambiciosa. Los próximos pasos incluyen el entrelazamiento cuántico y el trenzado basado en mediciones en dispositivos de dos cúbits, seguidos de la detección de errores cuánticos en matrices de tetrónes de 4×2 y, posteriormente, la corrección de errores a gran escala en matrices de 27×13. El objetivo final es crear un chip con un millón de cúbits físicos en pocos años. Microsoft es además una de las dos empresas seleccionadas para la fase final del programa US2QC de DARPA, lo que le ha otorgado cierto reconocimiento por su compromiso a largo plazo.

Sin embargo, el desarrollo de computadoras cuánticas es una carrera contrarreloj. IBM planea completar Quantum Starling, la primera computadora cuántica tolerante a fallos a gran escala, para 2029, con 200 cúbits lógicos. El objetivo es construir un sistema capaz de ejecutar 100 millones de puertas cuánticas con 100 millones de cúbits. Google también aspira a lograr pronto una computadora cuántica práctica y tolerante a errores. Microsoft acaba de comenzar, pero si consigue que los cúbits topológicos sean viables, la sobrecarga de corrección de errores podría reducirse drásticamente, abriendo la posibilidad de que supere rápidamente a sus competidores.

La estrategia de Microsoft es científicamente elegante y teóricamente atractiva. Sin embargo, la superioridad tecnológica no garantiza el éxito comercial. La historia de competiciones tecnológicas como Betamax frente a VHS o HD DVD frente a Blu-ray demuestra que el momento oportuno y el impulso del mercado suelen ser factores decisivos.

Tras los tropiezos de 2018, queda la pregunta en el aire: ¿la estrategia de «darse prisa y ponerse en marcha» dará resultado? El mundo observa con atención el desenlace de estas grandes apuestas en el ámbito cuántico.

(wired.com)

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Ciberseguridad basada en AI, Ciberseguridad convencional, (Data centers, redes y dispositivos). Ciberseguridad multinube, Ciberseguridad en universo hiperconectado, Arquitecturas de Ciberseguridad basadas en AI», que estamos preparando para nuestra edición 217 y publicaremos en el mes de diciembre.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Digiqole Ad
...

Notas Relacionadas