Los modelos gpt-oss de OpenAI hacen que la IA con uso de herramientas sea práctica

Loading

En un momento decisivo para la inteligencia artificial abierta, OpenAI ha presentado sus primeros modelos de lenguaje de pesos abiertos desde GPT-2: los gpt-oss-120b y 20b. Este lanzamiento marca un hito para el ecosistema de la IA, pues al estar bajo licencia Apache 2.0, permite a desarrolladores y empresas ejecutar, modificar y redistribuir los modelos en su propia infraestructura, lo que otorga un control inédito y elimina la dependencia de proveedores externos. Esta apertura es especialmente relevante para mercados emergentes, organizaciones pequeñas y sectores con recursos limitados, ya que facilita la personalización y el cumplimiento de normativas de privacidad manteniendo los datos localmente.

De acuerdo con Cyril Laurie, Technical Director EMEA Presales de AMD, los nuevos modelos gpt-oss de OpenAI destacan por incorporar capacidades avanzadas de razonamiento y uso de herramientas. El razonamiento de cadena de pensamiento (Chain-of-Thought, CoT) permite auditar y depurar el razonamiento paso a paso, mientras que el soporte nativo para herramientas, como navegación web y ejecución de código Python, así como integración vía API de respuestas, potencia su utilidad en entornos prácticos. Gracias a la generación de salidas estructuradas y validadas, los asistentes de investigación, las herramientas de análisis de datos y los ayudantes de programación pueden desplegarse de forma eficiente, incluso en implementaciones locales donde la privacidad y el coste son prioritarios.

Laurie señala que la publicación de los pesos abiertos y su disponibilidad en plataformas como Hugging Face, junto con cuantización MXFP4 e implementaciones de referencia, ha reducido significativamente la fricción técnica y los costes de acceso. AMD ha desempeñado un papel clave al ofrecer soporte desde el primer día (“día 0”) para estos modelos, tanto en GPUs de centros de datos como en procesadores de consumo. El procesador AMD Ryzen AI Max+ 395 se convierte así en el primero capaz de ejecutar el modelo 120B en un dispositivo portátil, trasladando capacidades antes exclusivas de grandes infraestructuras a usuarios finales y pymes.

El avance tecnológico de AMD y la arquitectura Mixture-of-Experts (MoE) de OpenAI han sido fundamentales para este logro. La eficiencia de MoE, que activa solo un subconjunto del modelo por token, permite que un modelo de 120.000 millones de parámetros pueda ejecutarse localmente en hardware de consumo, gracias a la amplia memoria y el ancho de banda de los nuevos procesadores de AMD. Esto reduce la latencia, elimina riesgos de dependencia y brinda mayor control sobre los datos, aspectos clave para aplicaciones en sectores sensibles y privados.

Desde la perspectiva de AMD, el ecosistema de software —ROCm, vLLM y PyTorch— ofrece contenedores de referencia, guías desde el primer día y compatibilidad con APIs estándar, lo que simplifica la integración y el despliegue tanto en la nube como en dispositivos locales. Los desarrolladores pueden crear prototipos rápidamente, escalar sus soluciones y mantener el control de costes y datos, sin depender de plataformas cerradas.

Laurie enfatiza que OpenAI ha hecho de la seguridad una prioridad en este lanzamiento, combinando técnicas de alineación, pruebas adversariales y revisiones externas para establecer un nuevo estándar en la validación de modelos abiertos. Publicar sus métodos y resultados eleva el nivel de transparencia en el sector, fortaleciendo la confianza en la adopción de estos modelos.

Las aplicaciones prácticas de los gpt-oss ya son una realidad. Desde la investigación y el análisis científico, donde combinan navegación web, cálculos y generación de informes estructurados, hasta la atención al cliente y la gestión del conocimiento, estos modelos pueden integrarse en flujos de trabajo avanzados, utilizando herramientas y ajustando el esfuerzo de razonamiento según las necesidades de cada caso. En ingeniería y operaciones, la automatización de tareas y la generación de datos validados por esquema agilizan los procesos y reducen costes.

La colaboración entre OpenAI y AMD se refleja en iniciativas como la demostración pública en Hugging Face Spaces, donde cualquier usuario puede interactuar con el modelo gpt-oss-120b sobre GPUs AMD Instinct MI300X en tiempo real, sin barreras técnicas. Este tipo de accesibilidad pone de manifiesto que la IA avanzada ya no es exclusiva de grandes laboratorios, sino que está al alcance de equipos y organizaciones de todos los tamaños.

De cara al futuro, Laurie anticipa que AMD reafirma su compromiso con la IA abierta, anunciando evoluciones constantes en hardware y software —como la serie AMD Instinct MI350, la plataforma “Helios” y las GPUs MI400 y MI450—, y colaboraciones profundas con OpenAI y otros actores clave. El objetivo, según el directivo, es estandarizar y democratizar la infraestructura de IA a gran escala, permitiendo una adopción más rápida y flexible. Con la llegada de más modelos abiertos y recetas de despliegue desde el primer día, el camino hacia una inteligencia artificial verdaderamente accesible y colaborativa está cada vez más definido.

(silicon.es)

Seguiremos brindándote más información sobre este tema en las siguientes presentaciones físicas y digitales de Channel News Perú

Mantente conectado a nuestra plataforma de negocios y revista, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario

Digiqole Ad
...

Notas Relacionadas