La inteligencia artificial entra en su fase de confianza: el reto que define su adopción
![]()
La inteligencia artificial (IA) atraviesa en México un punto de inflexión. Tras varios años dominados por la narrativa de innovación y disrupción, el debate público y empresarial comienza a desplazarse hacia una pregunta más compleja y decisiva: cómo escalar la IA con confianza. Regulación, protección de datos, trazabilidad y gobernanza se han convertido en los nuevos ejes de conversación en medios, empresas y sector público.
De acuerdo con un estudio de KPMG, 70% de las compañías en México ya ve la IA como una palanca para optimizar costos y automatizar procesos, pero solo 27% dice contar con una estrategia bien definida y alineada a la visión del negocio; además, aunque más de 40% evalúa riesgos asociados a la IA, menos de la mitad ha establecido principios éticos para su uso.
Este cambio ocurre en un contexto de adopción acelerada. La IA generativa ya se utiliza en áreas como atención al cliente, análisis financiero, automatización de procesos legales, marketing y optimización energética. Sin embargo, su integración masiva ha evidenciado una brecha: muchas organizaciones avanzan tecnológicamente más rápido de lo que avanzan sus marcos de control, cumplimiento y gestión de riesgos.
“La discusión ya no es si las empresas van a usar inteligencia artificial, sino bajo qué condiciones de confianza lo harán”, señala Alejandro Zubiria, consultor y representante de Trust para Latinoamérica. “El verdadero reto es asegurar que la IA sea explicable, auditada y alineada con principios claros de uso responsable”.
Durante los primeros ciclos de adopción, la IA fue tratada como una herramienta experimental. Equipos aislados probaban modelos, pilotos y automatizaciones sin un marco integral. Hoy, ese enfoque comienza a mostrar límites. La IA impacta decisiones sensibles: desde otorgamiento de créditos hasta selección de talento, pasando por análisis de riesgos, cumplimiento regulatorio y gestión de información confidencial.
En este escenario, esta noción cobra centralidad. Para las organizaciones, implica garantizar que los sistemas de IA cumplan con estándares de seguridad, privacidad y gobernanza; para los usuarios y clientes, significa certeza sobre cómo se usan sus datos y cómo se toman decisiones automatizadas.
“La ventaja competitiva no va a estar en quién adopta primero la IA, sino en quién logra integrarla con reglas claras y sostenibles”, explica Zubiria. “Las compañías que ignoren el componente de confianza enfrentarán frenos operativos, riesgos legales y pérdida de reputación”.
Países como México se encuentran en una posición particular dentro del ecosistema latinoamericano. Cuenta con talento técnico, una base empresarial amplia y una creciente conversación regulatoria en torno a datos, ciberseguridad e inteligencia artificial. Al mismo tiempo, enfrenta el desafío de armonizar innovación con certidumbre jurídica, especialmente en sectores regulados como financiero, energético, salud y servicios profesionales.
Para especialistas, los próximos dos años serán clave. La forma en que empresas y autoridades aborden la gobernanza de la IA definirá si el país se consolida como un hub de adopción responsable o si enfrenta fricciones que ralenticen su crecimiento tecnológico.
De cara a 2026, el mensaje para el mercado es claro: la inteligencia artificial ya es parte de la infraestructura crítica de las organizaciones. La siguiente fase no será tecnológica, sino estratégica: construir confianza alrededor de ella.
Seguiremos brindándote más información sobre este tema en las siguientes presentaciones físicas y digitales de Channel News Perú
Mantente conectado a nuestra plataforma de negocios y revista, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario