¿En qué se diferencia la infraestructura del centro de datos de IA de las cargas de trabajo de los centros de datos tradicionales?

La inteligencia artificial continúa impulsando la transformación en muchas industrias y, a medida que esta tecnología evoluciona rápidamente, también lo hace la infraestructura necesaria para sustentarla.
Los centros de datos de todo el mundo están experimentando cambios significativos para adaptarse a las altas demandas energéticas que las herramientas de IA imponen al hardware, la red, el consumo energético y la refrigeración. Algunas empresas incluso están construyendo centros de datos dedicados a la IA para impulsar el desarrollo de sus propias tecnologías.
Entonces, ¿qué exige exactamente la tecnología de IA cuando se trata de la infraestructura del centro de datos, en comparación con las cargas de trabajo del centro de datos tradicional?
De las CPU a las GPU
Uno de los mayores desafíos que plantea la IA en un entorno de centro de datos es su gran dependencia de la computación basada en GPU. Las GPU respaldan los modelos de IA al gestionar numerosos cálculos simultáneos. Esto es vital para satisfacer las enormes necesidades computacionales que conlleva el entrenamiento y la ejecución de modelos de IA. Las CPU tradicionales pueden ser excelentes en el procesamiento secuencial, pero, como resultado, son demasiado lentas para que muchos modelos de IA funcionen a un nivel óptimo.
Todo esto implica que los centros de datos de IA deben estar repletos de GPU que consumen mucha más energía, ya que operan a voltajes mucho mayores. Más potencia equivale a más calor, lo que también presenta nuevos desafíos para los propietarios y operadores de centros de datos, quienes necesitan equilibrar la demanda de energía, la eficiencia de refrigeración y el control de costos.
Dado que los racks con IA consumen hasta seis veces más energía que sus equivalentes tradicionales, los desarrolladores de centros de datos priorizan cada vez más las ubicaciones con abundante energía renovable y climas naturalmente más frescos. Las regiones de Canadá e Islandia son ideales gracias a la abundancia de energía hidroeléctrica y geotérmica, capaces de proporcionar energía fiable y asequible para cargas de trabajo de IA de alta densidad.
Sin embargo, la ubicación siempre implica encontrar el equilibrio adecuado. Este enfoque en ubicaciones estratégicas implica una desventaja: las instalaciones pueden construirse más lejos de los usuarios finales, por lo que debe considerarse cualquier posible impacto en la latencia. Para algunos centros de datos, se trata de un punto intermedio: construir en una ubicación con acceso a energía hidroeléctrica y un clima templado, e invertir en tecnologías de refrigeración avanzadas, como refrigeración líquida y directa al chip, que ofrecen una mejor disipación del calor y una mayor eficiencia energética.
Innovaciones en redes para respaldar las cambiantes demandas de la IA
La IA impone mayores demandas computacionales a los servidores, ya que mayores cantidades de datos deben llegar hacia y desde las GPU lo más rápido posible.
Las aplicaciones basadas en IA también exigen un ancho de banda exponencialmente mayor para procesar eficientemente los inmensos volúmenes de datos que requieren. Los servidores pueden necesitar velocidades de transferencia de datos de hasta 100 Gbps para garantizar el correcto funcionamiento de las herramientas y aplicaciones de IA. Lograr esto requerirá cambios en la forma en que los proveedores de computación basada en GPU seleccionan y construyen su pila de redes. Los componentes que estos proveedores probablemente han utilizado durante años ya no serán suficientes, lo que requerirá nuevos procesos de selección e I+D.
Como resultado, los operadores de centros de datos están invirtiendo en interconexiones de alto rendimiento que aceleran la transferencia de datos entre un gran número de nodos informáticos, como clústeres de GPU y TPU (Unidades de Procesamiento Tensorial), todos ellos esenciales para el entrenamiento y la ejecución eficiente de modelos complejos de IA. Lo mismo ocurre con las inversiones en hardware de red avanzado que ofrece mayor rendimiento, mayor fiabilidad y menor latencia.
El futuro del centro de datos de IA
Para mantenerse a la vanguardia, todos intentan atrapar rayos, y, ahora mismo, ese rayo es la IA.
Técnicamente, la IA puede ejecutarse en cualquier centro de datos. Sin embargo, los mayores requisitos de potencia y refrigeración de la computación basada en GPU implican que no todos los centros de datos están optimizados para su ejecución. En un sector con una fuerte competencia y una alta demanda de innovaciones en IA, imponer aún más exigencias a las cargas de trabajo de IA basadas en centros de datos tradicionales implica que los costos pueden dispararse fácilmente.
Gestionar estos costos debe ser una consideración crucial para cualquier operador de centro de datos que esté desarrollando para IA en este momento. Si bien muchas empresas estarán dispuestas a pagar un recargo por ejecutar sus cargas de trabajo de IA, si los operadores de centros de datos quieren seguir siendo competitivos, deberán encontrar maneras de compensar estos costos y evitar que el recargo recaiga completamente sobre su base de clientes.
(datacenterdynamics.com)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Soluciones y productos de infraestructura para edificios y ciudades inteligentes (Sistemas BIM y BMS), POL (Passive Optical LAN). Seguridad integrada, video vigilancia y control de acceso. Casos de uso y aplicabilidad de cada solución y producto, incluyendo la colaboración digital (relacionado a realidad virtual sistema BIM) (Gemelos digitales). Buenas prácticas ambientales.», que estamos preparando para nuestra edición 216 y publicaremos en el mes de julio.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.
