Alertan que agentes de IA podrían superar a los humanos como fuente de filtraciones internas en 2026
![]()
Proofpoint advierte de que la rápida adopción de agentes autónomos basados en inteligencia artificial podría incrementar de forma significativa los riesgos de amenazas internas en las organizaciones durante 2026.
Según la compañía, estos sistemas —capaces de navegar entre aplicaciones, generar código o ejecutar tareas en múltiples plataformas— pueden operar con privilegios elevados similares a los de un superusuario. En este contexto, los investigadores de la firma prevén que los copilotos autónomos podrían superar a los humanos como fuente de filtraciones de datos a lo largo de este año.
Nuevos riesgos en el entorno de trabajo agéntico
Las organizaciones están incorporando agentes de IA para automatizar procesos y aumentar la productividad. Sin embargo, si estos sistemas se configuran de forma incorrecta, pueden activar flujos de trabajo que expongan datos sensibles o debiliten los controles de seguridad existentes. Además, en escenarios adversos, el comportamiento del agente puede ser manipulado mediante instrucciones diseñadas para obtener resultados no autorizados.
Según los investigadores de la firma, los programas tradicionales de gestión de amenazas internas se diseñaron pensando en el comportamiento humano, analizando factores como motivos, accesos o oportunidades de riesgo en herramientas como el correo electrónico, las aplicaciones empresariales o las plataformas de colaboración. “La IA amplifica cada una de estas dimensiones con nuevas formas de riesgo, nuevas señales a detectar y nuevas responsabilidades interfuncionales a gestionar”, señalan los expertos de la compañía.
De herramientas a nuevas identidades digitales
Uno de los cambios estructurales señalados por la firma es que los agentes de IA deben empezar a considerarse identidades digitales con privilegios propios, y no simplemente herramientas. Esto implica que los equipos de seguridad tendrán que gestionar:
- Los privilegios asignados a los agentes
- La supervisión de su comportamiento
- La evaluación de su nivel de riesgo
En el nuevo entorno de trabajo agéntico, donde humanos y sistemas autónomos interactúan de forma constante, aumentarán los comportamientos accidentales o imprudentes relacionados con la exposición de datos.
Asistentes basados en grandes modelos de lenguaje como ChatGPT, Microsoft Copilot o Google Gemini pueden facilitar, por ejemplo, la filtración involuntaria de información sensible cuando los usuarios introducen datos corporativos en prompts o cuando los sistemas resumen contenido interno o acceden a fuentes restringidas.
IA y espionaje corporativo
El informe también señala que los incidentes internos suelen aumentar en contextos de transformación empresarial, como procesos de fusiones, adquisiciones o reestructuraciones.
En estos escenarios, el acceso desordenado a sistemas, las cuentas temporales o la falta de claridad en la propiedad de los datos pueden crear condiciones propicias para malas prácticas o filtraciones. Además, la inteligencia artificial podría facilitar nuevas formas de espionaje corporativo, al permitir analizar información pública sobre competidores, imitar solicitudes legítimas o automatizar procesos de recopilación de datos.
La IA también como herramienta de defensa
A pesar del aumento de riesgos, Proofpoint subraya que la inteligencia artificial también desempeñará un papel clave en la defensa frente a amenazas internas. Durante 2026, la compañía prevé que la IA se convierta en un multiplicador de capacidades para la detección y gestión de incidentes, permitiendo:
- Correlacionar señales de bajo nivel, como accesos inusuales o intentos de inicio de sesión.
- Analizar grandes volúmenes de telemetría.
- Generar resúmenes automatizados que aceleren la investigación de incidentes.
Este enfoque permitirá a los equipos de seguridad comprender en minutos situaciones que anteriormente requerían horas de análisis manual.
Hacia una gestión unificada del riesgo interno
El informe concluye que la evolución de la gestión de riesgos internos dependerá de la integración de tres dimensiones que tradicionalmente se analizaban por separado: las señales humanas, los datos de identidad y los eventos técnicos.
Una visión unificada de estas fuentes permitirá a los equipos de seguridad intervenir antes y aplicar controles más precisos.
Además, la expansión de la IA exige establecer políticas claras de uso aceptable, normas de privacidad y principios de gobernanza que definan los permisos de los agentes, los mecanismos para deshabilitarlos y las reglas para un uso responsable de los datos.
Según los expertos, las organizaciones que logren integrar estas capacidades de detección basadas en IA con una gobernanza interfuncional sólida estarán mejor posicionadas para afrontar los riesgos emergentes del nuevo entorno de trabajo híbrido entre humanos y agentes de inteligencia artificial.
(silicon.es)
Seguiremos brindándote más información sobre este tema en las siguientes presentaciones físicas y digitales de Channel News Perú
Mantente conectado a nuestra plataforma de negocios y revista, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario