Intel se une a AI Safety Working Group de MLCommons
Intel anuncia que se unirá al nuevo grupo de trabajo MLCommons AI Safety (AIS) junto con expertos en inteligencia artificial de la industria y el mundo académico. Como miembro fundador, contribuirá con su experiencia y conocimiento para ayudar a crear una plataforma flexible para los análisis de referencia que miden la seguridad y los factores de riesgo de las herramientas y modelos de IA. A medida que las pruebas maduren, los puntos de referencia estándar de seguridad de IA desarrollados por el grupo de trabajo se convertirán en un elemento vital del enfoque de nuestra sociedad para el despliegue y la seguridad de esta tecnología.
«Intel se ha comprometido a hacer que la IA avance de manera responsable y a hacerla accesible a todos. Abordamos las preocupaciones de seguridad de manera integral y desarrollamos innovaciones en hardware y software para permitir que el ecosistema construya IA confiable. Debido a la presencia generalizada y constante de modelos de lenguaje grandes, es fundamental colaborar en todo el entorno para abordar las preocupaciones de seguridad en el desarrollo y la puesta en marcha de la inteligencia artificial. Con este fin, nos complace unirnos a la industria en la definición de los nuevos procesos, métodos y puntos de referencia para mejorar la IA en todas partes», mencionó Deepak Patil, vicepresidente corporativo y gerente general de Soluciones de IA para centros de datos.
¿Por qué es importante?
La capacitación responsable y el despliegue de grandes modelos lingüísticos (LLM) y herramientas son de suma importancia para ayudar a mitigar los riesgos sociales que plantean estas poderosas tecnologías. La firma tecnológica ha reconocido desde hace tiempo la importancia de las implicaciones éticas y de derechos humanos asociadas con el desarrollo de la tecnología, especialmente la IA.
Este grupo de trabajo proporcionará un sistema de clasificación de seguridad para evaluar el riesgo que presentan las nuevas tecnologías de IA de rápida evolución. La participación en el grupo de trabajo AIS es el compromiso más reciente en los esfuerzos de la compañía por promover de manera responsable las tecnologías de IA.
Acerca de AI Safety Working Group
El grupo de trabajo de seguridad de IA está organizado por MLCommons con la participación de un grupo multidisciplinario de expertos en IA. El grupo desarrollará una plataforma y un conjunto de pruebas de colaboradores para respaldar los puntos de referencia de seguridad de IA para diversos casos de uso.
Intel planea compartir los hallazgos de seguridad de la IA y las mejores prácticas y procesos para el desarrollo responsable, como equipos rojos y pruebas de seguridad.
El enfoque inicial del grupo de trabajo será desarrollar puntos de referencia de seguridad para LLM, basándose en el trabajo preliminar de los investigadores del Centro de Investigación sobre Modelos de Fundación de la Universidad de Stanford y su Evaluación Holística de Modelos de Lenguaje (HELM).
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Desarrollo de software empresarial para la competitividad, BPM (Business Process Management), Gestión de Procesos de Negocios (CRM, ERP y CSP…) Data Science, Criptografía, NFT (Non Fungible Token) y Blockchain. Ciberseguridad, Metaverso, Automatización, AI, SaaS (Software as a service) en el marco de la transformación digital. Software para Comunicaciones Unificadas y Buenas prácticas corporativas”, que estamos preparando para nuestra edición 207 y publicaremos en el mes de noviembre.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.