Intel: Los clientes quieren portabilidad en sus cargas de trabajo de IA

Loading

La verdadera democratización de la Inteligencia Artificial (IA) debe ir desde la nube hasta la red, y hasta el borde permitir un acceso más amplio a la soluciones y despliegues más rentables a través de un enfoque de ecosistema abierto.

Así definió el panorama Sandra Rivera, vicepresidente global de Intel, durante su participación en un reciente seminario web para inversiones organizado por la empresa. «Los clientes quieren portabilidad en sus cargas de trabajo de IA. Quieren construir una vez y desplegarse en cualquier lugar», dijo.

Agregó que a medida que continúan entregando arquitecturas heterogéneas para cargas de trabajo de IA, implementarlas a escala requerirá un software que facilite a los desarrolladores programar y que florezca un ecosistema vibrante, abierto.

Por su parte, Greg Lavender, director de tecnología y líder del Grupo de Software y Tecnología, se refirió al software avanzado, así como a la inversión de la empresa en un enfoque holístico a nivel de sistemas de extremo a extremo para el software de IA, incluido el trabajo para estandarizar los lenguajes de programación para la portabilidad.

«El deseo de una alternativa abierta y multiarquitectura de múltiples proveedores al CUDA (de Nvidia) no está disminuyendo. Creemos que la industria se beneficiará de un lenguaje de programación estandarizado al que todos puedan contribuir, colaborar, no esté encerrado en un proveedor en particular y pueda evolucionar orgánicamente en función de sus miembros y requisitos públicos», definió.

De hecho, la empresa ha realizado contribuciones a SYCL, un modelo de programación abierto basado en C ++, y adquirió Codeplay Software (líder en el lenguaje y la comunidad SYCL). SYCL ahora se incluye en oneAPI para que los clientes puedan programar y compilar a través de CPU, GPU y aceleradores de múltiples proveedores. El trabajo adicional en optimizaciones de software ascendentes incluye optimizaciones para PyTorch 2.0 y TensorFlow 2.9, así como una colaboración con Hugging Face para entrenar, ajustar y predecir con la ayuda de Intel Xeon y Gaudi 2.

Impulsar el progreso en la IA generativa

Esta filosofía abierta se extiende al campo de la IA generativa, donde herramientas poderosas como ChatGPT y el modelo de texto a imagen DALL· E 2 está aprovechando los algoritmos de IA y los grandes conjuntos de datos para producir nuevo contenido basado en indicaciones humanas cada vez más complejas.

La IA generativa está evolucionando a gran velocidad, e Intel está trabajando activamente para apoyar un ecosistema abierto, al tiempo que aborda las crecientes demandas de rendimiento.

Días atrás, Hugging Face, un jugador importante en el desarrollo de aplicaciones de aprendizaje automático, anunció que había habilitado el modelo BLOOMZ de 176 mil millones de parámetros en Gaudí 2 de Habana. Es un modelo de IA de lenguaje grande de código abierto análogo al modelo GPT-3 del parámetro 175B empleado por ChatGPT. La compañía también confirmó que está ejecutando el modelo de texto a imagen de aprendizaje profundo Stable Diffusion en Xeon de 4ª generación con Intel AMX incorporado para la aceleración de la carga de trabajo de IA (Stable Diffusion es una alternativa de acceso abierto a DALL· E).

Más allá de los esfuerzos para reforzar un ecosistema abierto y ético, Xeon también está presente y se tiene en cuenta en otras partes del panorama de la IA generativa. Rivera recordó a los inversores que Nvidia está utilizando Xeon de 4ª generación como nodo principal para ejecutarse junto con sus GPU H100 para alimentar las máquinas virtuales acelerando los modelos generativos de IA en Microsoft Azure, incluido ChatGPT.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Notas Relacionadas