Programación de IA de código abierto se acentúa en el mercado
![]()
La reciente adquisición por parte de Nvidia de SchedMD, la empresa responsable del gestor de cargas de trabajo Slurm, está generando preocupación entre los ejecutivos del sector de la IA y los especialistas en supercomputación, que temen que el gigante de los chips pueda aprovechar su nueva posición para favorecer su propio hardware frente a los chips de la competencia, ya sea mediante la priorización del código o las decisiones sobre la hoja de ruta.
La preocupación, tal y como la plantean las fuentes del sector, es clara: Nvidia controla ahora un software de programación que también se ejecuta en hardware de sus rivales, incluidos AMD e Intel. Un proveedor que controla el software de programación de cargas de trabajo tiene una influencia significativa sobre la eficiencia con la que el hardware de la competencia funciona en entornos informáticos compartidos —independientemente de si ejerce esa influencia o no—, informa Reuters, citando a cinco fuentes anónimas, tres de las cuales trabajan en el sector de la IA y dos con conocimientos sobre el funcionamiento de los superordenadores.
Los analistas que han hablado con InfoWorld, publicación del grupo editor de COMPUTERWORLD en Estados Unidos, afirman que el compromiso de Nvidia con el código abierto —la empresa declaró durante el anuncio de la adquisición que “seguiría desarrollando y distribuyendo Slurm como software de código abierto y neutral con respecto a los proveedores”— podría no ser una protección suficiente.
“La base de código abierto de Slurm ofrece garantías como código transparente, capacidad de bifurcación y gobernanza comunitaria, pero el control de SchedMD otorga a Nvidia un poder blando en lugar de un bloqueo duro”, dice Manish Rawat, analista de semiconductores de TechInsights. Rawat señala que Nvidia podría moldear sutilmente la hoja de ruta, dando prioridad a la programación adaptada a las GPU y a las optimizaciones de topología que favorezcan su propio hardware, y que los plazos de integración ya mostraban un soporte más rápido para el ecosistema CUDA en comparación con alternativas como ROCm de AMD o oneAPI de Intel, creando lo que él describió como un “efecto de la ruta mejor soportada”.
¿Qué es Slurm y por qué es importante?
Slurm, desarrollado originalmente en el Laboratorio Nacional Lawrence Livermore, se ejecuta en aproximadamente el 60% de los superordenadores del mundo. El software se utiliza activamente en las principales empresas de IA, entre ellas Meta Platforms, la startup francesa de IA Mistral y Anthropic, para elementos del entrenamiento de modelos de IA, según informa Reuters.
Los superordenadores gubernamentales utilizados para la predicción meteorológica y la investigación en materia de seguridad nacional también dependen de él. Nvidia adquirió SchedMD, desarrollador de Slurm, en diciembre de 2025 y describió el acuerdo como un impulso para fortalecer su ecosistema de código abierto y ayudar a los usuarios a adoptar nuevas técnicas de IA junto con el trabajo tradicional de supercomputación.
¿Se trata de una preocupación fundada?
El Dr. Danish Faruqui, director ejecutivo de Fab Economics, una consultora estadounidense especializada en hardware de IA y centros de datos, asegura que el riesgo es real. “El escepticismo de que Nvidia pueda dar prioridad a su propio hardware en futuras actualizaciones de software, lo que podría retrasar o optimizar de forma insuficiente el soporte para sus rivales, es un resultado factible”, dice. Como desarrollador principal, Nvidia controla ahora la hoja de ruta de desarrollo oficial de Slurm y el proceso de revisión del código, señaló Faruqui, “lo que podría influir en la rapidez con la que se integran los chips de la competencia en los nuevos elementos de desarrollo o de mejora continua”.
El hecho de poseer el plano de control junto con las GPU y la infraestructura de red, como InfiniBand, añade, permite a Nvidia crear una pila estrechamente integrada verticalmente que puede conducir a lo que él describió como “fosos poco profundos, donde las funciones avanzadas solo están disponibles o funcionan de manera óptima en el hardware de Nvidia”.
Una prueba concreta de ello, según los observadores del sector, será la rapidez con la que Nvidia integre la compatibilidad con los chips de próxima generación de AMD en el código base de Slurm, en comparación con la rapidez con la que integra su propio hardware y tecnologías de red de próxima generación, como InfiniBand.
¿Se mantiene el precedente de Bright Computing?
Los analistas señalan la adquisición de Bright Computing por parte de Nvidia en 2022 como punto de referencia, afirmando que el software se optimizó para los chips de Nvidia de formas que perjudicaban a los usuarios de hardware de la competencia. Nvidia rebatió esa caracterización, alegando que Bright Computing es compatible con “casi cualquier clúster acelerado por CPU o GPU”.
Rawat señala que la comparación era instructiva, pero imperfecta. “La adquisición de Bright Computing por parte de Nvidia pone de relieve su preferencia por la integración vertical, incorporando a Bright de forma estrecha en las pilas de DGX y AI Factory en lugar de mantener un papel de orquestación neutral y multivendedor. Esto refleja un patrón estratégico más amplio: Nvidia busca controlar la experiencia de la infraestructura de IA de pila completa”.
Sin embargo, apunta que Slurm planteaba un reto fundamentalmente diferente. “Profundamente arraigado en los centros de supercomputación y el ámbito académico, y gobernado de forma efectiva por la comunidad, Slurm conlleva altos costes de cambio”, indica Rawat. “Nvidia puede influir, pero es poco probable que replique el mismo control estrechamente integrado en mercados dominados por plataformas consolidadas, neutrales e impulsadas por la comunidad”.
La válvula de seguridad del código abierto y sus límites
Faruqui reconoce que la licencia de código abierto de Slurm, bajo una licencia GNU GPL v2.0, ofrece cierta protección, incluido el derecho de la comunidad a bifurcar el proyecto si la gestión de Nvidia se considera sesgada. Pero advirtió que esa opción conllevaba sus propios riesgos. “El estatus de código abierto de Slurm proporciona una válvula de seguridad con sus limitaciones, pero no es un escudo completo contra la neutralidad frente a los proveedores”, afirma.
La adquisición incorporó a Nvidia a muchos de los principales desarrolladores de Slurm del mundo, señala, lo que significa que una bifurcación liderada por la comunidad tendría dificultades para mantener el mismo ritmo de desarrollo. Rawat describe la situación como “un riesgo de dependencia estratégica, no una crisis”, y apunta que las organizaciones deberían diversificar la adquisición de GPU, comparar cargas de trabajo en ecosistemas de múltiples proveedores y desarrollar experiencia interna para modificar o cambiar las herramientas de orquestación si fuera necesario.
Faruqui recomienda que los compradores empresariales que negocien acuerdos de soporte para Slurm busquen garantías de nivel de servicio que se apliquen igualmente al hardware que no sea de Nvidia, y que cubran los tiempos de respuesta, la corrección de errores y la paridad de funciones en clústeres heterogéneos. En cuanto a la arquitectura, dijo que las organizaciones deberían considerar la contenedorización de las cargas de trabajo de IA para aislar las aplicaciones del programador subyacente, lo que haría más factible la migración a programadores alternativos como Flux o Kubernetes si fuera necesario.
(computerworld.es)
Seguiremos brindándote más información sobre este tema en las siguientes presentaciones físicas y digitales de Channel News Perú
Mantente conectado a nuestra plataforma de negocios y revista, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario