AMD presenta el creciente impulso de las Soluciones de IA desde los Centros de Datos hasta las PC

Loading

En el evento «Advancing AI», AMD se unió a líderes de la industria como Microsoft, Meta, Oracle, Dell Technologies, HPE, Lenovo, Supermicro, Arista, Broadcom y Cisco para mostrar cómo estas empresas están trabajando con AMD para ofrecer soluciones avanzadas de IA que abarcan desde la nube hasta las empresas y los PCs. AMD lanzó múltiples productos en el evento, incluidos los aceleradores de IA para centros de datos AMD Instinct Serie MI300, la ROCm 6 open software stack con optimizaciones significativas y nuevas funciones compatibles con Modelos de Lenguaje de Gran Tamaño (LLM) y los procesadores Ryzen Serie 8040 con Ryzen AI.

«La IA es el futuro de la computación y AMD está en una posición única para impulsar la infraestructura integral que definirá esta era, desde instalaciones masivas en la nube hasta clústeres empresariales, dispositivos y PCs inteligentes habilitados para IA», afirmó la Dra. Lisa Su, presidenta y CEO de AMD. «Estamos observando una fuerte demanda de nuestras nuevas GPU Instinct MI300, que son los aceleradores de mayor rendimiento del mundo para IA generativa. También estamos generando un impulso significativo para nuestras soluciones de IA para centros de datos con las mayores compañías de nube, los principales proveedores de servidores de la industria y las startups de IA más innovadoras con las que estamos trabajando estrechamente para llevar rápidamente al mercado soluciones Instinct MI300 que acelerarán drásticamente el ritmo de la innovación en todo el ecosistema de IA».

Llevando el Centro de Datos IA de la nube a los centros de datos empresariales y supercomputadores

AMD estuvo acompañada por múltiples socios durante el evento para destacar la fuerte adopción y el creciente impulso de los aceleradores de IA para centros de datos AMD Instinct.

  • Microsoft detalló cómo está desplegando los aceleradores AMD Instinct MI300X para alimentar la nueva Serie de Azure ND MI300x v5 Virtual Machine (VM) optimizadas para cargas de trabajo de IA.
  • Meta compartió que la compañía está añadiendo aceleradores AMD Instinct MI300X a sus centros de datos en combinación con ROCm 6 para potenciar las cargas de trabajo de inferencia de IA y reconoció las optimizaciones de ROCm 6 que AMD ha realizado en la familia de modelos Llama 2.
  • Oracle desveló sus planes para ofrecer soluciones informáticas OCI bare metal con aceleradores AMD Instinct MI300X, así como sus planes para incluir aceleradores AMD Instinct MI300X en su próximo servicio de IA generativa.
  • Los mayores proveedores de infraestructuras de centros de datos han anunciado planes para integrar los aceleradores AMD Instinct MI300 en sus carteras de productos. Dell anunció la integración de los aceleradores AMD Instinct MI300X con su solución de servidor PowerEdge XE9680 para ofrecer un rendimiento innovador para cargas de trabajo de IA generativa en un formato modular y escalable para los clientes. HPE anunció planes para incorporar aceleradores AMD Instinct MI300 a sus ofertas empresariales y de HPC. Lenovo compartió sus planes de incorporar los aceleradores AMD Instinct MI300X a la plataforma Lenovo ThinkSystem para ofrecer soluciones de IA en sectores como el comercio minorista, la fabricación, los servicios financieros y de salud. Supermicro ha anunciado sus planes de ofrecer las GPU AMD Instinct MI300 en toda su cartera de soluciones de IA. Asus, Gigabyte, Ingrasys, Inventec, QCT, Wistron y Wiwynn también tienen previsto ofrecer soluciones basadas en aceleradores AMD Instinct MI300.
  • Proveedores especializados en IA en la nube como Aligned, Arkon Energy, Cirrascale, Crusoe, Denvr Dataworks y Tensorwaves tienen previsto proporcionar ofertas que ampliarán el acceso a las GPU AMD Instinct MI300X para desarrolladores y startups de IA.

Lanzamiento al mercado de una plataforma de software de IA abierta, probada y preparada

AMD ha destacado los importantes avances en la ampliación del ecosistema de software compatible con los aceleradores de centros de datos AMD Instinct.

  • AMD presentó la última versión de la open software stack de código abierto para las GPU AMD Instinct, ROCm 6, que se ha optimizado para la IA generativa, en particular los modelos de lenguaje de gran tamaño. ROCm 6 ofrece soporte para nuevos tipos de datos, optimizaciones avanzadas de gráficos y kernels, librerías optimizadas y algoritmos de atención de última generación que, junto con MI300X, proporcionan un aumento del rendimiento de ~8x la latencia total en la generación de texto en Llama 2 en comparación con ROCm 5 ejecutado en MI250.
  • Databricks, Essential AI y Lamini, tres startups de IA que construyen modelos emergentes y soluciones de IA, se unieron a AMD en el escenario para discutir cómo están aprovechando los aceleradores AMD Instinct MI300X y la ROCm 6 open software stack para ofrecer soluciones de IA diferenciadas para clientes empresariales.
  • OpenAI añade soporte para los aceleradores AMD Instinct a Triton 3.0, proporcionando soporte inmediato para los aceleradores AMD que permitirá a los desarrolladores trabajar a un mayor nivel de abstracción en hardware AMD.

Liderazgo continuo en el avance de los PC con IA

Con millones de PC con IA enviados hasta la fecha, AMD anunció nuevos procesadores móviles líderes con el lanzamiento de los últimos AMD Ryzen Serie 8040 que ofrecen aún más capacidad de cálculo de IA. AMD también lanzó Ryzen AI 1.0 Software, una software stack que permite a los desarrolladores desplegar fácilmente aplicaciones que utilizan modelos preentrenados para añadir capacidades de IA para Windows. AMD también reveló que las próximas CPU «Strix Point» de próxima generación, cuyo lanzamiento está previsto para 2024, incluirán la arquitectura XDNA 2 para ofrecer más de 3x de rendimiento de computación de IA en comparación con la generación anterior, lo que permitirá nuevas experiencias de IA generativa. Microsoft también se unió para hablar de cómo están trabajando estrechamente con AMD en futuras experiencias de IA para PC con Windows.

Características

AMD Instinct MI300X

Los aceleradores AMD Instinct MI300X funcionan con la nueva arquitectura AMD CDNA 3. En comparación con los aceleradores AMD Instinct MI250X de la generación anterior, MI300X ofrece casi un 40 % más de unidades de cómputo, 1,5 veces más capacidad de memoria, 1,7 veces más ancho de banda de memoria teórico máximo, así como soporte para nuevos formatos matemáticos como FP8 y sparsity; todo orientado a cargas de trabajo de IA y HPC.

Los LLM actuales continúan aumentando en tamaño y complejidad, y requieren cantidades masivas de memoria y computación. Los aceleradores AMD Instinct MI300X cuentan con 192 GB de capacidad de memoria HBM3, la mejor de su clase, así como un ancho de banda de memoria máximo de 5,3 TB/s2 para ofrecer el rendimiento necesario para cargas de trabajo de IA cada vez más exigentes. La plataforma AMD Instinct es una plataforma de IA generativa construida sobre un diseño OCP estándar de la industria con ocho aceleradores MI300X para ofrecer una capacidad de memoria HBM3 de 1,5 TB líder en la industria. El diseño estándar de la industria de la plataforma AMD Instinct permite a los socios OEM diseñar aceleradores MI300X en ofertas de IA existentes y simplificar la implementación y acelerar la adopción de servidores basados ??en aceleradores AMD Instinct.

En comparación con la Nvidia H100 HGX, la plataforma AMD Instinct puede ofrecer un aumento de rendimiento de hasta 1,6 veces cuando se ejecuta inferencia en LLM como BLOOM 176B y es la única opción en el mercado capaz de ejecutar inferencia para un modelo de parámetros de 70B, como Llama2. en un único acelerador MI300X; simplificando las implementaciones de LLM de clase empresarial y ofreciendo un costo total de la propiedad (TCO) excepcional.

AMD Instinct MI300A

AMD Instinct MI300A, la primera APU del mundo para centros de datos enfocada en HPC e IA, aprovecha el apilado 3D y la arquitectura AMD Infinity de cuarta generación para ofrecer un rendimiento líder en cargas de trabajo críticas ubicadas en la convergencia de HPC e IA. Las APU MI300A combinan núcleos de GPU AMD CDNA™ 3 de alto rendimiento, los últimos núcleos de CPU basados ??en AMD “Zen 4” x86 y 128 GB de memoria HBM3 de próxima generación, para ofrecer 1,9 veces el rendimiento por vatio en cargas de trabajo de computación de alto rendimiento FP32 e IA, en comparación con la generación anterior AMD Instinct MI250X.

La eficiencia energética es de suma importancia para las comunidades de HPC e IA; sin embargo, estas cargas de trabajo requieren un gran uso de datos y recursos. Las APU AMD Instinct MI300A se benefician de la integración de núcleos de CPU y GPU en un solo paquete, lo que brinda una plataforma altamente eficiente y, al mismo tiempo, proporciona el rendimiento informático para acelerar el entrenamiento de los últimos modelos de IA. AMD está marcando el ritmo de la innovación en eficiencia energética con el objetivo 30×25 de la compañía de ofrecer una mejora de 30 veces la eficiencia energética en procesadores y aceleradores de servidores para capacitación en IA y HPC entre 2020 y 2025.

La ventaja de las unidades de procesamiento acelerado significa que las APU AMD Instinct MI300A cuentan con memoria unificada y recursos de caché, lo que brinda a los clientes una plataforma GPU fácilmente programable, computación de alto rendimiento, entrenamiento rápido de IA y una impresionante eficiencia energética para impulsar las cargas de trabajo de HPC e IA más exigentes.

Software ROCm y Socios de Ecosystem

AMD anunció también la última plataforma de software abierto AMD ROCm™ 6, así como el compromiso de la compañía de contribuir con bibliotecas de última generación a la comunidad de código abierto, impulsando su visión sobre el desarrollo de software de IA. El software ROCm 6 representa un avance significativo para las herramientas de AMD, ya que aumenta el rendimiento de aceleración de IA en aproximadamente 8 veces cuando se ejecuta en aceleradores de la Serie MI300 en la generación de texto Llama 2 en comparación con el hardware y software de la generación anterior. Además, ROCm 6 agrega soporte para varias características clave nuevas para la IA generativa, incluidas FlashAttention, HIPGraph y vLLM, entre otras. Como tal, AMD está en una posición única para aprovechar los modelos, algoritmos y marcos de software de IA de código abierto más utilizados, como Hugging Face, PyTorch, TensorFlow y otros, impulsando la innovación, simplificando la implementación de las soluciones de IA de AMD y liberando el verdadero potencial. de IA generativa.

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Desarrollo de software empresarial para la competitividad, BPM (Business Process Management), Gestión de Procesos de Negocios (CRM, ERP y CSP…) Data Science, Criptografía, NFT (Non Fungible Token) y Blockchain. Ciberseguridad, Metaverso, Automatización, AI, SaaS (Software as a service) en el marco de la transformación digital. Software para Comunicaciones Unificadas y Buenas prácticas corporativas”, que estamos preparando para nuestra edición 207 y publicaremos en el mes de diciembre.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Notas Relacionadas