Gartner: La tecnología de reconocimiento biométrico facial en jaque por los ataques con deepfake

Loading

Para 2026, los ataques usando deepfakes generados por IA generativa en biométrica facial llevarán a que el 30% de las empresas dejen de usar esas soluciones de verificación y autenticación por no ser confiables de forma aislada.

“En la década pasada, muchos puntos de inflexión en los campos de la IA han ocurrido que permiten la creación de imágenes sintéticas. Estas imágenes de rostros de gente real que son generadas artificialmente, conocidas como deepfakes, pueden ser usadas por actores maliciosos para socavar la autenticación biométrica o volverla ineficiente”, dijo Akif Khan, VP analista en Gartner. “Como resultado, las organizaciones pueden empezar a cuestionar la confiabilidad de las soluciones de verificación y autenticación, pues no podrán determinar si el rostro de la persona verificada es real o una deepfake”.

Los procesos de autenticación y verificación de identidad que usan biométrica hoy se sustentan en el método de presentation attack detection (PAD) para evaluar la veracidad del usuario. “Los estándares actuales y los procesos de prueba para definir y evaluar los mecanismos de PAD no cubren los ataques de inyección digital que usan los deepfakes generados con IA generativa hoy”, dijo Khan.

El investigador de Gartner dijo que los ‘ataques de representación’ son el vector de ataque más común, pero los ‘ataques de inyección’ se incrementaron un 200% en 2023. Prevenir dichos ataques requiere una combinación de PAD e IAD (detección de ataque de inyección), así como inspección de imagen.

Combinar IAD y las herramientas de inspección de imágenes para mitigar los riesgos de deepfakes

Para ayudar a las organizaciones a protegerse ellas mismas frente a los deepfakes generados con IA generativa más allá de la biométrica, los directores de seguridad de la información (CISO) y líderes de gestión de riesgo deben escoger proveedores que puedan demostrar capacidades y un plan que vaya más allá de los estándares actuales de monitoreo, clasificando y cuantificando estos nuevos tipos de ataques.

“Las organizaciones deben empezar definiendo una línea de base mínima de controles al trabajar con vendors que hayan invertido específicamente en mitigar los últimos ataques basados en deepfake usando IAD junto a la inspección de imagen”, agregó Khan.

Una vez que la estrategia está definida y la base asentada, los CISO y líderes de gestión de riesgo deben incluir señales adicionales de riesgo y reconocimiento, como dispositivos de identificación y analítica de comportamiento, para incrementar las posibilidades de detectar ataques en sus procesos de verificación de identidad.

Les estaremos informando con mucho más detalle, en el marco del informe especial: “Desarrollo de software: empresarial, corporativo y técnico para la competitividad, BPM (Business Process Modelling), Gestión de Procesos de Negocios (CRM, ERP y CSP…) Data Science, Criptografía, NFT (Non Fungible Token) y Blockchain. Ciberseguridad, VR (Realidad Virtual) y AR (Realidad aumentada), Automatización, Programmability. Drones: aplicabilidad productiva y comercial, Generative AI, SaaS (Software as a service) en el marco de la transformación digital. Software para Comunicaciones Unificadas: para equipos de trabajo, centrales virtuales, tele impresión y Buenas prácticas corporativas”, que estamos preparando para nuestra edición 215 y publicaremos en el mes de septiembre.

Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.

Notas Relacionadas