El intento de la ONU de regular la IA podría complicar el cumplimiento normativo de las empresas
Aunque la propuesta de la ONU se centra en regular a los proveedores de IA, es posible que los departamentos de TI de las empresas tengan que lidiar con una mayor legislación de esta tecnología por parte de los países miembros, que podrían querer reforzar sus normas como resultado de esta iniciativa.
Naciones Unidas ha hecho un llamamiento a los países para que acuerden lo que denomina “líneas rojas de la IA”: “Límites que no deben traspasarse en materia de inteligencia artificial, [que se establecerán] a finales de 2026 para prevenir los riesgos más graves para la humanidad y la estabilidad mundial”. La declaración de la ONU emitida el lunes decía: “Sin normas internacionales vinculantes, la humanidad se enfrenta a riesgos cada vez mayores, que van desde pandemias provocadas y desinformación a gran escala hasta amenazas a la seguridad mundial, abusos sistemáticos de los derechos humanos y pérdida del control y la supervisión humanos sobre los sistemas avanzados”.
En un documento de preguntas y respuestas de la ONU sobre la iniciativa, el organismo mundial ofrece una amplia gama de posibles prohibiciones de la IA, entre las que se encuentran el uso de ésta en el mando y control nuclear, la prohibición de las armas autónomas letales, de la vigilancia masiva, de la suplantación de identidad humana que implique “sistemas de IA que engañan a los usuarios haciéndoles creer que están interactuando con un ser humano sin revelar su naturaleza de IA”, y el uso malicioso cibernético, que define como “prohibir la liberación incontrolada de agentes ciberofensivos capaces de perturbar infraestructuras críticas”.
La ONU también quiere prohibir la autorreplicación autónoma, que, según afirma, es el “despliegue de sistemas de IA capaces de replicarse o mejorarse significativamente a sí mismos sin autorización humana explícita”, así como bloquear “el desarrollo de sistemas de IA que no puedan ser terminados inmediatamente si se pierde el control humano significativo sobre ellos”.
Además, hace hincapié en que “cualquier tratado futuro debe basarse en tres pilares: una lista clara de prohibiciones, mecanismos de verificación sólidos y auditables y el nombramiento de un organismo independiente establecido por las Partes para supervisar su aplicación”.
Sin embargo, muchos analistas y observadores se muestran preocupados por si estas restricciones globales son prácticas, aplicables o incluso oportunas para limitar los daños. Las preocupaciones de los analistas no se centran en lo que intenta la ONU, sino en si habrá suficientes países que lo apoyen, si su objetivo de implementación a finales de 2026 es lo suficientemente pronto como para marcar la diferencia y si es realmente aplicable.
Estos han señalado que la aplicabilidad/ejecutabilidad de las normas puede tener un impacto en las empresas, principalmente a través de las normas de cumplimiento, pero que los requisitos de la ONU están realmente destinados a afectar a los hiperescalares y otros proveedores de IA, en contraposición a sus clientes.
Las normas de IA que podrían afectar a las empresas podrían incluir límites al uso de la IA para seleccionar candidatos a puestos de trabajo, tomar decisiones sobre préstamos o entrenar modelos con datos confidenciales de clientes. Las empresas seguirían teniendo que cumplirlas si operan en cualquier país que haya firmado el acuerdo de la ONU. Por otra parte, es probable que esos países, como Alemania, Canadá, Suiza o Japón, tengan sus propias normas de cumplimiento en materia de IA, lo que haría que el mandato de la ONU fuera potencialmente irrelevante.
Valence Howden, asesor del Info-Tech Research Group, afirma que entiende y aplaude la intención detrás del esfuerzo de la ONU, aunque cuestiona su viabilidad. “¿Cómo protegemos a las organizaciones [dado que] los riesgos no están vinculados a las fronteras nacionales?”, se pregunta. “Hay un consenso más general de lo que la gente cree sobre la necesidad de hacerlo. Estados Unidos es un caso atípico; no quieren regular ni controlar el alcance de la IA. Incluso China está diciendo lo correcto”. “Muchos de los actores que pensé que se opondrían no lo hicieron”, señala.
De hecho, el único país, aparte de Estados Unidos, que ha expresado fuertes dudas ha sido Francia, según Howden, “porque tienen la misma preocupación [que Estados Unidos] de que se frene la innovación”, pero añadió que es probable que Francia lo apoye, pero que dijo esas cosas debido a otros delegados presentes en la sala. Howden también expresa su preocupación por el objetivo de la ONU de aplicar estas restricciones a finales del próximo año. “Hay mucho que hacer y hay que hacerlo rápidamente”, afirma, pero con la ONU, “la gobernanza y las protecciones avanzan a la velocidad de la burocracia”.
Para el experto, el sector de los proveedores de IA se está acercando a lo que él denomina “el punto de ingobernabilidad”; la industria está “muy cerca de ese estado en este momento, más allá del punto de no retorno”. Señala que, incluso si se aprobara la iniciativa de la ONU, es dudoso que los principales hiperescalares, que ofrecen la mayoría de los modelos de IA generativa, la cumplieran. “¿Podemos confiar en que los grandes proveedores empresariales lo hagan? No. Ahora mismo no lo hacen”, señala.
Brian Levine es un antiguo fiscal federal de Estados Unidos que actualmente ocupa el cargo de director ejecutivo de un directorio de antiguos especialistas gubernamentales y militares llamado FormerGov. Su función en el Departamento de Justicia del país incluía la participación en numerosas iniciativas de normalización global, entre ellas la colaboración con Interpol en la coordinación internacional contra el ransomware y su participación en el Grupo Conjunto de Enlace (JLG) con China para la aplicación de la ley. Levine afirma que espera que la medida de la ONU se apruebe, ya que la mayoría de los miembros estarán de acuerdo con los principios fundamentales. “Pero esos principios serán tan generales que no supondrán un avance significativo”, añade. Indica que aceptar la propuesta de la ONU supone un riesgo bastante bajo, ya que los países probablemente pensarán: “No te preocupes. De todos modos, no se puede hacer cumplir”. La ONU ya ha emprendido iniciativas similares en el pasado, con escasos resultados. Hace unos 11 años, la ONU intentó prohibir los robots asesinos autónomos.
Peter Salib, profesor adjunto de Derecho en el Centro Jurídico de la Universidad de Houston (Estados Unidos), cree que el despliegue actual de los sistemas de IA generativa en el mundo real hace que la amenaza de los daños causados por esta tecnología sea mucho más concreta que la amenaza de los robots asesinos autónomos en 2014. Pero en cuanto a la iniciativa de la ONU anunciada esta semana, Salib duda de que vaya a servir de mucho: “Probablemente no pase nada importante. A los países no les importa mucho y no les importa lo suficiente como para renunciar a su soberanía”.
(computerworld.es)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Arquitecturas de AI, Machine Learning, Deep Learning, Gemelos digitales y Soluciones de valor de Cloud Computing con innovadores modelos de negocio, soluciones de IOT, IOTI, soluciones de Automatización. Ciberseguridad. Hiperconvergencia. Infraestructura de conectividad: redes LAN, Wifi. Buenas prácticas corporativas», que estamos preparando para nuestra edición 226 y publicaremos en el mes de junio.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.