Gartner advierte de la conveniencia de mantener los navegadores con IA fuera de la empresa

Loading

Gartner defiende que los navegadores con IA, como Perplexity Comet y ChatGPT Atlas de OpenAI, presentan riesgos de seguridad que no se pueden mitigar de manera adecuada, por lo que las empresas deben impedir que sus empleados los utilicen.

Así lo explicaron sus analistas Dennis Xu, Evgeny Mirolyubov y John Watts la semana pasada en un comunicado: “Gartner recomienda encarecidamente a las organizaciones que bloqueen todos los navegadores con IA en un futuro próximo debido a los riesgos de ciberseguridad”. Ambos basan su recomendación en los riesgos que ya habían identificado “y en otros potenciales que aún no se han descubierto, dado que se trata de una tecnología muy incipiente”.

No deja de ser oportuna la advertencia, pues los navegadores de IA ya están ganando terreno en las empresas: el 27,7% de las organizaciones ya tiene al menos un usuario con Atlas instalado, y algunas empresas admiten que hasta el 10% de sus empleados utilizan activamente el navegador, según afirmó en octubre la empresa de ciberseguridad Cyberhaven. Se ha observado que las tasas de adopción más altas se daban en el sector tecnológico (67%), el farmacéutico (50 %) y el financiero (40 %), todos ellos con requisitos de seguridad elevados.

Lanzado el 21 de octubre, ChatGPT Atlas registró 62 veces más descargas corporativas que Perplexity Comet, que se lanzó el 9 de julio, según Cyberhaven. La puesta en marcha de Atlas también despertó un renovado interés por los navegadores con IA en general, y las descargas de Comet se multiplicaron por seis durante la misma semana.

Sin embargo, una vez lanzado ChatGPT Atlas surgieron preocupaciones sobre la amenaza que representan los navegadores con IA, y los analistas señalaron vulnerabilidades de inyección inmediata y problemas de seguridad de los datos.

Datos confidenciales en riesgo

El motivo de la preocupación reside en que, cuando envían contenido web activo, historial de navegación y contenido de pestañas abiertas a la nube para su análisis, las empresas pierden el control de sus datos.

La documentación de Perplexity, por ejemplo, advierte que “Comet puede procesar algunos datos locales utilizando los servidores de Perplexity para responder a sus consultas. Esto significa que Comet lee el contexto de la página solicitada (como texto y correo electrónico) para realizar la tarea solicitada”.

Mirolyubov, director analista senior de Gartner, afirmó que “el verdadero problema es que la pérdida de datos confidenciales en los servicios de IA puede ser irreversible e imposible de rastrear. Existe la posibilidad que las organizaciones nunca recuperen los datos perdidos”.

No sólo preocupa dónde envían los datos los navegadoras para su procesamiento, sino también lo que hacen con ellos. Por eso añadió que “las transacciones erróneas de los agentes plantean problemas de responsabilidad en caso de errores costosos”.

Los controles tradicionales son inadecuados

Los navegadores de IA pueden navegar de forma autónoma por sitios web, rellenar formularios y completar transacciones mientras están autenticados en recursos web. Como él y sus colegas escribieron en su informe, esto hace que los navegadores de IA sean susceptibles a nuevos riesgos de ciberseguridad, “como acciones de agentes maliciosos inducidas por inyecciones indirectas, acciones erróneas de agentes impulsadas por razonamientos inexactos y una mayor pérdida y abuso de credenciales si se engaña al navegador de IA para que navegue de forma autónoma a un sitio web de phishing”.

Para Mirolyubov, “los controles tradicionales son inadecuados para los nuevos riesgos que introducen los navegadores de IA, y las soluciones apenas están empezando a surgir”. Y apostilló: “Existe una gran brecha en la inspección de las comunicaciones multimodales con los navegadores, incluidos los comandos de voz a los navegadores de IA”.

La inyección de comandos sigue siendo una preocupación especial, según reconoció Dane Stuckey, director de seguridad de la información de OpenAI, en una publicación en X, anteriormente Twitter, el día después del lanzamiento de ChatGPT Atlas. Y añadió: “La inyección de comandos sigue siendo un problema de seguridad sin resolver, y nuestros adversarios dedicarán mucho tiempo y recursos a encontrar formas de hacer que los agentes de ChatGPT caigan en estas trampas”.

Las vulnerabilidades descubiertas ponen de manifiesto la inmadurez

Más allá de los riesgos teóricos, ya han surgido fallos de seguridad concretos en los dos principales navegadores de IA. Días después del lanzamiento de ChatGPT Atlas, los investigadores descubrieron que almacena tokens OAuth sin cifrar con una configuración de archivos en macOS que se caracteriza por su excesiva permisividad, lo que podría permitir el acceso no autorizado a las cuentas de los usuarios. La vulnerabilidad fue documentada por el grupo de investigación de seguridad Teamwin el 27 de octubre.

OpenAI no había publicado ningún parche a fecha de 31 de octubre, cuando Gartner completó su investigación.

Por otra parte, la empresa de ciberseguridad LayerX Security informó el pasado mes de agosto del descubrimiento de una vulnerabilidad en Comet llamada “CometJacking” que podría filtrar los datos de los usuarios a servidores controlados por los atacantes.

OpenAI y Perplexity no respondieron a las solicitudes de comentarios.

Años, no meses, para madurar

Las vulnerabilidades descubiertas ponen de relieve una preocupación más amplia sobre la madurez de la tecnología de los navegadores de IA. Según Mirolyubov, “la seguridad y la privacidad deben convertirse en principios básicos de diseño, en lugar de considerarse a posteriori”, para añadir que los proveedores de navegadores con IA deben incorporar controles de ciberseguridad de nivel empresarial desde el principio y ofrecer una mayor transparencia en cuanto a los flujos de datos y las decisiones de los agentes.

De ahí que afirmara que las soluciones emergentes de control del uso de la IA probablemente tardarán “años, en lugar de meses”, en madurar. “Es poco probable que se eliminen todos los riesgos: las acciones erróneas de los agentes de IA seguirán siendo motivo de preocupación. Las organizaciones con baja tolerancia al riesgo pueden necesitar bloquear los navegadores de IA a largo plazo”.

Según destaca el estudio de Gartner, las organizaciones con mayor tolerancia al riesgo que quieran experimentar deben limitar las pruebas piloto a pequeños grupos que aborden casos de uso de bajo riesgo que sean fáciles de verificar y revertir. Los usuarios deben “supervisar siempre de cerca cómo navega de forma autónoma el navegador de IA cuando interactúa con recursos web”.

Por ahora, según Gartner, las organizaciones deben bloquear las instalaciones de navegadores de IA utilizando los controles de seguridad de red y de terminales existentes, y también revisar sus políticas de IA para garantizar que se prohíba el uso generalizado de los navegadores de IA.

“Hoy en día, la mayoría de los equipos de ciberseguridad optan por bloquear los navegadores de IA, lo que retrasa su adopción hasta que se comprendan mejor los riesgos y los controles sean más maduros”, concluyó Mirolyubov.

(computerworld.es)

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Ciberseguridad basada en AI, Ciberseguridad convencional, (Data centers, redes y dispositivos). Ciberseguridad multinube, Ciberseguridad en universo hiperconectado, Arquitecturas de Ciberseguridad basadas en AI», que estamos preparando para nuestra edición 217 y publicaremos en el mes de diciembre.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Digiqole Ad
...

Notas Relacionadas