Regulación de la IA en Europa: ¿qué exige la nueva ley y cómo responden las empresas?
Minsait, compañía del grupo Indra, presentó AI ACTion, una propuesta a las organizaciones para que la adopción de la IA en sus operaciones y procesos cumpla con la legislación europea sobre inteligencia artificial –la conocida como AI Act– sin perder capacidad innovadora.
Aprobada en marzo de 2024 y en vigor desde agosto de ese mismo año, la normativa aplicable en la UE –tanto en compañías europeas como en aquellas que operan en los Estados miembros– establece una serie de requisitos de obligado cumplimiento y aplicación paulatina.
Desde el pasado mes de febrero y según la normativa, que contempla multas de hasta el 7% de los ingresos de las empresas infractoras, los sistemas de IA que utilizan algunas de las prácticas prohibidas por el reglamento europeo debían caer en desuso y las compañías han de contar con un plan de alfabetización y concienciación. A partir de agosto, se aplicarán las obligaciones para los sistemas de inteligencia artificial de propósito general como los modelos extensos de lenguaje (LLM), que tienen gran capacidad para imitar el razonamiento humano.
En agosto de 2026, con la exigencia de los requisitos correspondientes a algunos sistemas de alto riesgo –aquellos que puedan representar una amenaza a la seguridad o los derechos humanos–, concluirá su implantación y la AI Act será una realidad para todas las organizaciones, sectores de actividad y niveles de adopción y desarrollo de la inteligencia artificial.
En medio de este escenario, AI ACTion pretende guiar a las compañías para entender el nivel de vulnerabilidad ética de sus sistemas de IA, conocer las obligaciones legales que les corresponden y, especialmente, poder evolucionarlas a prácticas concretas dentro de la organización sin que represente una merma en su competitividad.
La metodología de la empresa consta de tres fases. La primera de ellas contempla el análisis individualizado de los sistemas de IA de los que dispone una compañía o institución, estudiando sus datos, técnicas, lógicas, contexto e impacto, y asegurando que incluye toda la información que exige la normativa.
Este análisis permite al equipo de expertos en IA Responsable de la organización cruzar la información obtenida sobre dichos activos con los niveles de riesgo contemplados en la legislación europea a fin de establecer categorías basadas en el impacto del sistema de IA desde el punto de vista de la ética y la responsabilidad.
A continuación, la empresa que accede al servicio dispone de un itinerario de prácticas de cumplimiento en el uso de la inteligencia artificial dentro de su organización, incluidos controles rutinarios en materia de privacidad, gobierno del dato o transparencia. Estos itinerarios se concretan en acciones particulares que atienden a las especificidades de cada sistema IA, facilitando la implementación de las prácticas exigidas por AI Act.
“El gran reto de las organizaciones es traducir la normativa a prácticas concretas, lo que requiere el apoyo de aceleradores, con los que ya contamos, y un cambio cultural”, explica Leticia Gómez Rivero, responsable de Estrategia y Gobierno de IA en la compañía. “Por eso es tan importante el trabajo que estamos desarrollando desde AI ACTtion y que tiene foco en tres elementos: estrategia, acciones y herramientas que sustenten las buenas prácticas”, añade.
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Soluciones y productos de infraestructura para edificios y ciudades inteligentes (Sistemas BIM y BMS), POL (Passive Optical LAN). Seguridad integrada, video vigilancia y control de acceso. Casos de uso y aplicabilidad de cada solución y producto, incluyendo la colaboración digital (relacionado a realidad virtual sistema BIM) (Gemelos digitales). Buenas prácticas ambientales.», que estamos preparando para nuestra edición 216 y publicaremos en el mes de julio.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.