El precio de las GPU, un indicador de los costes de la IA, puede ayudar a los responsables de TI a elaborar sus presupuestos
![]()
La inteligencia artificial (IA) es ya un servicio básico más dentro del conjunto de gastos operativos de las empresas. Por ello, los responsables de TI que están definiendo sus presupuestos de IA para 2026 deben tener en cuenta el coste de los recursos subyacentes: las GPU de los centros de datos modernos, que están liberando el potencial de la IA.
Desde que llegara ChatGPT hace tres años, el impulso por disponer de herramientas de IA generativa cada vez más potentes y numerosas no ha dejado de acelerarse. Sin embargo, ese crecimiento ha tenido un precio: un aumento vertiginoso de los presupuestos de IA, en un contexto marcado por la escasez de GPU y por una capacidad energética limitada para alimentar esos centros de datos.
En la actualidad se están realizando múltiples esfuerzos para reducir tanto el coste del uso de GPU como el asociado a las herramientas de IA generativa. Entre ellos destacan los centros de datos más pequeños, las nuevas herramientas de facturación y la adopción de alternativas de software y hardware.
El presupuesto tradicional de la IA depende en gran medida del precio de las GPU, del número de horas de uso y de las tarifas por instancia. Las instancias de GPU son “excesivamente caras”, según Corey Quinn, economista jefe de Duckbill, empresa que ofrece herramientas de análisis de costes para proveedores de servicios en la nube; con precios que superan los 30 dólares por hora para configuraciones de gama alta bajo demanda,
En su opinión, “en cargas de trabajo de IA de gran envergadura, los costes de GPU suelen convertirse en la partida dominante, por lo que vemos a las empresas compitiendo por capacidad reservada y por instancias puntuales», quien añade que la facturación de la IA a través de los servicios en la nube “es un auténtico desastre”.
Los responsables de TI no pueden comprometerse con recursos informáticos fijos debido a la imprevisibilidad de las cargas de trabajo de IA. A ello se suma la complejidad añadida por los hiperescalares, que introducen servicios de GPU gestionados, créditos de IA y descuentos por uso comprometido.
Quinn recuerda que “luego están los costes ocultos que todo el mundo olvida: la transferencia de datos, el almacenamiento de los datos de entrenamiento y el tiempo de ingeniería necesario para que todo funcione”.
Al mismo tiempo, los proveedores de nube más pequeños —también conocidos como neoclouds— están consiguiendo acceder a más GPU y poniéndolas a disposición de los equipos de TI. Entre estas empresas se encuentran CoreWeave, Lambda Labs y Together AI.
Quinn señala que estas empresas “están ganando una cuota de mercado significativa al centrarse exclusivamente en las cargas de trabajo de GPU y, a menudo, reducen los precios de los hiperescalares entre un 30% y un 50%”.
Según el economista, los neoclouds apuestan por GPU con descuento en áreas geográficas más limitadas, una restricción que algunas empresas están dispuestas a aceptar.
Los responsables de TI tampoco necesitan necesariamente las GPU más recientes y avanzadas de Nvidia o AMD para sus cargas de trabajo de IA, explica Laurent Gil, cofundador de Cast AI. Las generaciones anteriores de GPU pueden rendir igual de bien en determinados escenarios, siempre que se sepa dónde encontrarlas para optimizar el gasto.
Para Gil, “el precio spot de AWS para las GPU A100 y H100 de Nvidia ha caído un 80% entre el año pasado y este año, aunque no de forma uniforme en todas las regiones», afirmó Gil.
Por ejemplo, Cast AI ofrece herramientas de software y agentes de IA que permiten trasladar las cargas de trabajo a GPU más económicas en distintos proveedores de nube y regiones. De ahí que Gil explique que “nuestros agentes hacen lo mismo que haría un humano una vez al mes, sólo que lo hacen cada segundo”.
Las herramientas de Cast AI también optimizan el uso de CPU, que consumen mucha menos energía que las GPU. Según Gil, el consumo energético ya es uno de los principales cuellos de botella para las cargas de trabajo de IA.
Además, algunas empresas están reclamando una mayor transparencia en los precios y en la disponibilidad de las GPU.
Una de ellas es la startup Internet Backyard, que permite a los operadores de centros de datos ofrecer presupuestos, facturación, pagos y conciliación en tiempo real para la capacidad de GPU. Su software de marca blanca se integra directamente en los sistemas de los proveedores de centros de datos.
“Desde el punto de vista del inquilino del centro de datos, contamos con un portal en el que se puede ver el precio de las GPU en tiempo real y su correspondencia energética con el consumo real”, explica Mai Trinh, director ejecutivo de Internet Backyard.
Y añade que, por el momento, la startup no trabaja con hiperescalares y se centra en centros de datos emergentes que necesitan estandarizar la facturación, la cotización y el procesamiento de pagos. “Cuando hablamos con quienes están construyendo un centro de datos, nos dicen que todo se sigue gestionando en Excel y que no existen precios en tiempo real”, apostilla.
Dado que la IA está estrechamente ligada al rendimiento, la empresa explora un modelo de precios basado en el rendimiento, en lugar de tarifas vinculadas a tipos concretos de GPU. “Para nosotros es fundamental fijar los precios en función del rendimiento, porque es por eso por lo que realmente se paga”, afirma Trinh, y añade: “No se está pagando por el activo depreciado de otra persona”.
Entre los patrocinadores de la startup se encuentra Jay Adelson, cofundador de Equinix, una de las mayores empresas de centros de datos del mundo.
La energía es otro factor clave en la fijación de precios de las GPU. La creciente demanda de computación para IA está tanto saturando las redes eléctricas, que tienen límites de potencia, como elevando el coste de los servicios públicos.
Según un estudio de McKinsey publicado en 2024, los centros de datos de Estados Unidos podrían representar el 12% del consumo total de energía del país en 2030. Al mismo tiempo, los precios de la electricidad se están disparando debido al auge de los centros de datos. La semana pasada, varios grupos enviaron una carta al Congreso de EE. UU. solicitando una moratoria en la construcción de nuevos centros de datos.
De ahí que Peng Zou, director ejecutivo de PowerLattice crea que los requisitos energéticos que están planteando los grandes proveedores de IA para los centros de datos del futuro no sean sostenibles en su opinión. Los clústeres de IA de alta densidad están obligando a los directores de informática a replantearse su hoja de ruta en materia de infraestructura y de costes”.
PowerLattice desarrolla tecnología destinada a mejorar la eficiencia energética de los chips modernos. Esta tecnología forma parte de una nueva generación de soluciones diseñadas para la era de la IA, cuyo objetivo es exprimir al máximo el rendimiento de los sistemas y, al mismo tiempo, reducir el consumo energético.
En conclusión, “la fiabilidad y el tiempo de actividad de los servidores de IA y de las GPU son aspectos críticos y una gran preocupación para los directores de informática, termina Zou.
(computerworld.es)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Ciberseguridad basada en AI, Ciberseguridad convencional, (Data centers, redes y dispositivos). Ciberseguridad multinube, Ciberseguridad en universo hiperconectado, Arquitecturas de Ciberseguridad basadas en AI», que estamos preparando para nuestra edición 217 y publicaremos en el mes de diciembre.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.