Tres de cada cuatro proyectos de IA basada en agentes suponen un riesgo grave de seguridad

Loading

Palo Alto Networks ha hecho públicos los resultados de un nuevo análisis sobre proyectos con IA basada en agentes desarrollados en la actualidad cuya conclusión es cristalina: el 75% de los proyectos de IA basada en agentes representa un riesgo grave de seguridad para las organizaciones.

Desde el especialista en ciberseguridad advierten de que el problema no reside en la tecnología en sí, sino en la ausencia de gobernanza, control y supervisión adecuados.

Es más, el informe desvela que muchas de esas iniciativas de IA se impulsan sin definir objetivos claros, ni tampoco criterios de seguridad ni mucho menos una dirección estratégica desde los consejos de administración.

En consecuencia, concluye Palo Alto Networks, la innovación de hoy podría convertirse en la cibercrisis del mañana de no existir una acción urgente a nivel de liderazgo.

Y es que, como ha explicado Haider Pasha, CISO de EMEA en Palo Alto Networks, a través de un comunicado, “la gran diferencia ahora es que la IA basada en agentes no se limita a ofrecer respuestas, sino que ejecuta acciones orientadas a resultados concretos”. Y añade: “Las organizaciones que sepan identificar los casos de uso adecuados y alinearlos con objetivos de negocio serán las que realmente logren extraer valor de esta tecnología”.

De ahí que haya identificado tres pilares esenciales para guiar la IA basada en agentes hacia un valor real y sostenible, sin comprometer la seguridad ni la confianza.

El primer pilar consiste en definir y limitar los resultados. El análisis identifica como principal causa de fracaso el fenómeno del “desvío de resultados”, es decir, proyectos de IA lanzados sin objetivos empresariales medibles ni enfoque de riesgo. Según Gartner, el 40% de todos los proyectos serán cancelados antes de 2027, mientras que el MIT estima que el 95% de los programas de IA generativa empresariales ya están fracasando. La situación es aún más preocupante desde el punto de vista de la ciberseguridad, ya que solo el 6% de las organizaciones aplican un marco de seguridad avanzado para la IA (Stanford).

La recomendación de Palo Alto Networks es diseñar los proyectos de agentes de IA a partir de objetivos definidos y aprobados por el consejo, alineados con estándares de seguridad e identidad corporativa.

El segundo pilar consiste en equilibrar la confianza en la IA con control, aplicando principios de Zero Trust y un enfoque de seguridad centrado en la identidad. Según la compañía, los fallos más comunes provienen de agentes con privilegios excesivos, controles de identidad débiles o sin límites de acceso definidos.

Para eso, es preciso tener en cuenta que la autonomía de los agentes debe ganarse, no concederse desde el primer día. Recomienda tratar los sistemas como empleados digitales, sujetos a niveles de confianza progresivos y con auditoría constante. De ahí que recomiende aplicar el modelo Zero Trust en toda la arquitectura; separar privilegios y controlar los subagentes; registrar todas las acciones y mantener siempre un humano en el circuito; adoptar un AI Security Framework integral, evitando soluciones aisladas.

Actualmente, la relación entre agentes y humanos se sitúa ya en torno a 80 a 1, una proporción que se incrementará rápidamente en los próximos años, obligando a las organizaciones a establecer marcos de control robustos y escalables.

Para finalizar, Palo Alto Networks destaca que los agentes de IA deben abordarse como una iniciativa empresarial transversal, no como un proyecto aislado del área de TI. Para garantizar su éxito, la compañía propone crear un “Consejo de Gobernanza de Agentes”, con representación de las áreas de seguridad, riesgo, legal, operaciones y negocio, y revisiones periódicas a nivel de consejo de administración; y que los consejos supervisen de forma más estricta la integración y los resultados de los proyectos; se formen activamente en las implicaciones de la IA; establezcan alianzas con socios tecnológicos de confianza a largo plazo; y empoderen a los responsables para adoptar la IA de forma controlada y segura.

(computerworld.es)

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Ciberseguridad basada en AI, Ciberseguridad convencional, (Data centers, redes y dispositivos). Ciberseguridad multinube, Ciberseguridad en universo hiperconectado, Arquitecturas de Ciberseguridad basadas en AI», que estamos preparando para nuestra edición 217 y publicaremos en el mes de octubre.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Digiqole Ad
...

Notas Relacionadas