¿Qué le depara el futuro a la infraestructura de Azure?
![]()
Ahora que el año 2025 llega a su fin, es momento de analizar cómo la nube hiperescala Azure de Microsoft se prepara para afrontar la segunda mitad de la década. Como ya viene siendo habitual, el director técnico de Azure, Mark Russinovich, ofreció su visión de ese futuro durante Ignite, en esta ocasión a través de dos ponencias diferenciadas centradas en infraestructura y software.
La primera presentación se centró en la evolución de la infraestructura subyacente de Azure y en cómo el software que utilizamos se está adaptando para aprovechar el nuevo hardware. Comprender qué hay debajo de la infraestructura virtual que usamos a diario es algo fascinante debido a su constante cambio, aunque no sea visible para nosotros. No solemos preocuparnos por el hardware que sustenta nuestro software, ya que nuestro acceso se limita a las API y a las máquinas virtuales.
Esta abstracción es, a la vez, una fortaleza y una debilidad de la nube hiperescala. Microsoft puede actualizar continuamente todos los aspectos de su hardware sin afectar a nuestro código, pero los clientes han de esperar a que la plataforma haga visibles esas innovaciones de forma generalizada, o bien trasladar sus cargas de trabajo a las pocas regiones que ya disponen del nuevo hardware, lo que incrementa los riesgos derivados de una menor redundancia.
Aun así, merece la pena entender qué está haciendo Microsoft, ya que las tecnologías que está desplegando terminarán por afectar directamente a su infraestructura virtual.
Refrigeración de CPU mediante microfluídica
La primera presentación de Russinovich adoptó un enfoque por capas de Azure, comenzando por la evolución de sus centros de datos. La escala de la plataforma es, ya de por sí, impresionante: Azure cuenta ya con más de 70 regiones y más de 400 centros de datos, interconectados por más de 600.000 kilómetros de fibra, incluidos enlaces transoceánicos y continentales, con los principales centros de población integrados en la misma red.
Conforme las cargas de trabajo evolucionan, también lo hacen los centros de datos, lo que obliga a replantear los sistemas de refrigeración. Las crecientes demandas de energía y refrigeración, especialmente derivadas de las cargas de trabajo de IA, están impulsando un rediseño de los servidores, lo que lleva la refrigeración directamente al chip mediante microfluídica. Se trata del siguiente paso en la refrigeración líquida: frente a los diseños actuales, que colocan placas frías sobre el chip, la microfluídica requiere un rediseño del encapsulado para llevar la refrigeración directamente al silicio.
Situar la refrigeración justo donde se produce el procesamiento hace posible aumentar la densidad del hardware, apilando capas de refrigeración entre memoria, procesamiento y aceleradores dentro del mismo encapsulado. Los canales se diseñan utilizando aprendizaje automático y se optimizan para los puntos calientes generados por cargas de trabajo habituales.
Microsoft está desarrollando de manera interna la primera generación de grabados microfluídicos, aunque tiene previsto colaborar con fabricantes de silicio como Intel y AMD para que los chips lleguen ya pregrabados. Esta refrigeración no se limita a las CPU, sino que también puede aplicarse a las GPU.
Impulsando Azure Boost
Más allá del silicio, Microsoft sigue mejorando los servidores de hardware abierto de Azure con una nueva generación de aceleradores Azure Boost. Azure Boost, que actualmente está instalado en más del 25% del parque de servidores de Microsoft y de serie en todo el nuevo hardware, está diseñado para descargar en hardware dedicado las cargas propias de la plataforma. De esta manera, permite a usuarios y aplicaciones acceder al máximo rendimiento del servidor.
Bajo el nombre en clave Overlake, la última generación de Azure Boost incorpora conectividad de red de 400 Gbps, ofreciendo 20 Gbps de almacenamiento remoto y 36 Gbps de almacenamiento NVMe de conexión directa, con hasta 6,6 millones de IOPS.
En su interior se encuentra un sistema en chip (SoC) personalizado que combina núcleos Arm y una matriz de puertas programables en campo (FPGA), ejecutando el mismo Azure Linux que utilizan los contenedores Kubernetes. A ello se ha añadido cifrado por hardware para garantizar la compatibilidad con las capacidades de computación confidencial de Azure, manteniendo los datos cifrados incluso en la frontera entre los servidores y las placas Azure Boost.
Azure apuesta por el “bare metal”
Una de las ventajas de trasladar gran parte de la gestión de servidores al hardware físico es que Microsoft puede ofrecer ahora hosts bare metal a sus clientes. En un principio, este enfoque se utilizó para los servidores de entrenamiento de OpenAI, lo que proporciona acceso directo tanto al hardware de red como a la memoria remota desde las máquinas virtuales.
Esta última capacidad no sólo acelera las comunicaciones entre máquinas virtuales, sino que también mejora el acceso a las GPU, lo que permite mover grandes volúmenes de datos de forma más eficiente. El servicio RDMA de Azure ya no se limita a operaciones dentro del armario o del centro de datos, sino que ofrece conectividad de baja latencia a escala regional.
Aunque los servidores bare metal aportan mejoras significativas de rendimiento, su uso resulta especialmente relevante para grandes clientes que, combinados con RDMA regional, pueden construir sus propios superordenadores. El resto de los usuarios, sin embargo, también se benefician indirectamente de un mayor rendimiento de sus infraestructuras virtuales.
Para lograrlo, es necesario eliminar la sobrecarga asociada tanto a las máquinas virtuales como a los contenedores. Como ha señalado Russinovich en otras ocasiones, el futuro de Azure es serverless: alojar y ejecutar contenedores en entornos de plataforma como servicio.
En consecuencia, ese futuro sin servidores requiere una nueva forma de virtualización que vaya más allá del modelo actual de contenedores seguros de Azure basados en máquinas virtuales anidadas. El objetivo es proporcionar acceso directo al hardware manteniendo el mismo nivel de seguridad y aislamiento. Hasta ahora, la virtualización anidada obligaba a ejecutar hipervisores dentro de otros hipervisores, con el consiguiente impacto en el rendimiento.
Una nueva técnica de virtualización directa elimina esa capa adicional, ejecutando las máquinas virtuales de usuario y los contenedores directamente sobre el hipervisor del servidor, gestionado por el sistema operativo host de Azure. Este enfoque reduce la sobrecarga de rendimiento y proporciona acceso directo a hardware como GPU y aceleradores de inferencia de IA, además de permitir migraciones más rápidas entre servidores ante fallos de hardware.
Sin duda, un modelo resulta clave para iniciativas sin servidor como Azure Container Instances (ACI), pues permite que los contenedores gestionados accedan a redes más rápidas, GPU y otros recursos avanzados. Russinovich mostró mejoras de rendimiento de hasta un 50 % en PostgreSQL, junto con una reducción significativa de la latencia. Al permitir el acceso a GPU, ACI puede alojar cargas de inferencia de IA y ejecutar modelos de código abierto en contenedores, facilitando su integración con AI Foundry.
Hardware personalizado para redes virtuales
La IA ha influido de manera notable en el diseño de los centros de datos de Azure, especialmente para grandes clientes que requieren acceso a capacidades clave de la infraestructura y el máximo rendimiento posible. Esto también afecta a las redes, que se han gestionado de manera tradicional mediante máquinas virtuales especializadas encargadas del enrutamiento, la seguridad y el equilibrio de carga.
Microsoft está introduciendo nuevo hardware de descarga para alojar estos dispositivos de red virtual, junto con conmutadores inteligentes de borde. Este hardware ejecuta políticas de red definidas por software, gestionando tanto las redes virtuales de las cargas estándar de Azure como la conectividad específica que enlaza la nube con las redes locales.
Además, puede reflejar el tráfico de forma transparente hacia hardware de seguridad sin afectar a las operaciones, lo que permite observar el tráfico entre máquinas virtuales concretas y detectar intrusiones u otras brechas de seguridad sin añadir latencia que pueda alertar a posibles atacantes.
Aceleración y escalado del almacenamiento
El enorme volumen de datos requerido por el entrenamiento de modelos de IA ha llevado a Microsoft a replantear el aprovisionamiento de almacenamiento en Azure. Los modelos de vídeo requieren cientos de petabytes de datos de imagen, terabytes de ancho de banda y millones de operaciones de entrada/salida por segundo, lo que supone una carga considerable para una infraestructura ya exigida.
Como respuesta, Microsoft ha desarrollado una nueva cuenta de almacenamiento escalada, concebida como una capa virtual sobre múltiples cuentas de almacenamiento estándar. No es necesario modificar el hardware existente, y el almacenamiento virtual puede abarcar tantas cuentas como sea necesario para escalar al máximo.
Como se trata de almacenamiento compartido, el rendimiento mejora al recuperar los datos en paralelo desde múltiples cuentas. En Ignite, Russinovich demostró un sistema con 1,5 petabytes de datos distribuidos en 480 nodos, alcanzando escrituras de 22 terabits por segundo y lecturas desde 695 nodos a 50 terabits por segundo.
Aunque muchos de estos avances están orientados a escenarios especializados de entrenamiento de IA, pueden compararse con los equipos de Fórmula 1 del mundo de la informática, ya que impulsan innovaciones que acabarán beneficiando a todos, quizá no de inmediato pero sí en los próximos cinco años.
La apuesta de Microsoft por un Azure sin servidores requiere muchas de estas tecnologías para ofrecer a los contenedores gestionados el rendimiento necesario, lo que supone redefinir la forma en que se entregan las infraestructuras virtuales y se construyen los centros de datos de próxima generación. Estas inversiones en IA también deben dar soporte a todo tipo de aplicaciones, desde IoT basado en eventos hasta Kubernetes distribuido y escalable, además de plataformas y servicios que aún no se han diseñado.
Tecnologías como la virtualización directa y la descarga de redes son las que previsiblemente aportarán beneficios más inmediatos al mayor número de clientes de Azure. Máquinas virtuales y contenedores más rápidos y portátiles harán que las aplicaciones sean más escalables y resilientes, mientras que la descarga de redes definidas por software a servidores dedicados abre nuevas posibilidades para proteger infraestructuras virtuales y datos críticos.
Quizá lo más relevante de la presentación de Russinovich es que estas tecnologías no se encuentran en fase de investigación, sino que ya se están desplegando en nuevos centros de datos y forman parte de las actualizaciones previstas para la plataforma Azure existente. Con este contexto, no queda más que esperar con qué novedades nos sorprenderá Microsoft el próximo año.
(computerworld.es)
Seguiremos brindándote más información sobre este tema en las siguientes presentaciones físicas y digitales de Channel News Perú
Mantente conectado a nuestra plataforma de negocios y revista, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario