El llamamiento a prohibir la superinteligencia artificial podría redefinir la carrera tecnológica mundial entre Estados Unidos y China
Más de 850 personalidades destacadas de todo el mundo han pedido que se prohíba el desarrollo de la superinteligencia artificial, una medida que, de adoptarse, podría remodelar las inversiones empresariales en IA e intensificar la carrera tecnológica entre Estados Unidos y China. En una carta abierta, publicada por el Future of Life Institute, se define la superinteligencia como los sistemas de IA que “superan significativamente a todos los seres humanos en prácticamente todas las tareas cognitivas”, y que van mucho más allá de los chatbots y las herramientas de automatización actuales hasta llegar a sistemas que podrían tomar decisiones estratégicas de forma autónoma, reescribir su propio código y operar más allá de la supervisión humana.
Los firmantes abarcan un espectro político poco común, desde los pioneros de la IA Geoffrey Hinton y Yoshua Bengio hasta premios Nobel, el cofundador de Apple Steve Wozniak y la exasesora de Seguridad Nacional de la Administración Obama, Susan Rice. Este grupo diverso sugiere que la gobernanza de la IA se está convirtiendo en una cuestión política que trasciende las líneas partidistas tradicionales.
Yuval Noah Harari, autor y profesor de la Universidad Hebrea de Jerusalén, y signatario de la carta abierta, añade en una nota personal que “la superinteligencia probablemente rompería el propio sistema operativo de la civilización humana, y es completamente innecesaria. Si, en cambio, nos centramos en crear herramientas de IA controlables para ayudar a las personas reales de hoy en día, podremos aprovechar los increíbles beneficios de la IA de una forma mucho más fiable y segura”.
En la lista de firmantes no figuran los actuales líderes de las principales empresas de IA, como OpenAI, Anthropic, Google, Meta y Microsoft, lo que refleja una brecha cada vez mayor entre quienes construyen sistemas avanzados de IA y quienes piden restricciones.
Para las empresas, el debate surge en un momento en que estas invierten miles de millones en infraestructura de IA. El director ejecutivo de Meta, Mark Zuckerberg, creó Meta Superintelligence Labs en junio tras invertir 14.300 millones de dólares en Scale AI, mientras que Sam Altman, de OpenAI, afirmó en enero que la compañía que lidera está cambiando su enfoque hacia el desarrollo de la superinteligencia.
Esta es la segunda vez que el Future of Life Institute organiza una campaña de este tipo. En marzo de 2023, la organización publicó una carta en la que pedía una pausa de seis meses en el entrenamiento de sistemas de IA más potentes que GPT-4. Esa carta reunió más de 30 000 firmas, pero fue ignorada por las empresas de IA.
Un asunto que aún no preocupa a las empresas y a sus áreas de TI
Los analistas afirman que la superinteligencia sigue siendo un riesgo teórico lejano, más que una preocupación operativa para la planificación de TI de las empresas. “La superinteligencia sigue siendo un riesgo teórico a largo plazo, no una preocupación operativa dentro del horizonte de planificación empresarial para 2025-2028”, señala Sanchit Vir Gogia, analista jefe y director ejecutivo de Greyhound Research. “Los directores de TI deben resistirse a confundir la ambición de los proveedores con la utilidad empresarial”.
Gogia apunta que la prioridad estratégica es estabilizar y ampliar la IA de la generación actual mediante la gobernanza de los datos, la explicabilidad de los modelos y las prácticas de validación. “El discurso existencial en torno a la superinteligencia pertenece a los reguladores y a los especialistas en ética; los directores de informática deben construir con las herramientas y las verdades del presente”, asevera.
La carta advierte de que la superinteligencia plantea riesgos que van más allá de la actual disrupción de la mano de obra por parte de la IA. “Pedimos que se prohíba el desarrollo de la superinteligencia, que no se levante hasta que exista un amplio consenso científico de que se hará de forma segura y controlable y una fuerte aceptación por parte del público”, afirma la misiva.
La preocupación se centra en lo que los investigadores de IA denominan el problema de la alineación: garantizar que los sistemas más inteligentes que los humanos persigan objetivos compatibles con los valores humanos. Las técnicas actuales funcionan para la IA actual, pero pueden resultar inadecuadas para sistemas que superen la inteligencia humana, según una investigación de IBM sobre la superalineación.
Más allá de los riesgos teóricos de la superinteligencia, los sistemas actuales de IA ya están transformando la mano de obra de las empresas. Según un informe de septiembre de Indeed, el 26% de los puestos de trabajo publicados durante el último año están a punto de transformarse debido a la IA generativa, y los puestos tecnológicos y financieros son los que corren mayor riesgo.
Goldman Sachs Research estima que, si los casos de uso actuales de la IA se ampliaran a toda la economía, el 2,5% del empleo en Estados Unidos correría el riesgo de desaparecer. El consejero delegado de Salesforce, Marc Benioff, afirmó en agosto que la empresa había reducido los puestos de atención al cliente de 9.000 a unos 5.000 debido a las capacidades de la IA.
Implicaciones competitivas y de gobernanza
Si bien la IA actual ya está alterando la fuerza laboral, la prohibición del desarrollo de la superinteligencia remodelaría el panorama competitivo para los proveedores de IA. Según Gogia, si los laboratorios de vanguardia se ven obligados por la normativa a ralentizar el desarrollo de la superinteligencia, el equilibrio competitivo se desplazaría hacia los proveedores con arquitecturas de IA controlables y específicas para cada dominio.
“Los compradores empresariales ya muestran una fuerte preferencia por los modelos ‘adecuados pero verificables’ frente a los sistemas de vanguardia de caja negra, especialmente en contextos regulados o críticos para la seguridad”, afirma. “Una ralentización regulada aceleraría la demanda de modelos de lenguaje pequeños, pilas de IA soberanas y ajustes precisos alojados en empresas con un linaje claro, reproducibilidad y controles de políticas”.
Una prohibición también podría tener un impacto económico significativo. Gartner prevé que el gasto mundial en IA alcance casi 1,5 billones de dólares en 2025 y supere los 2 billones en 2026, impulsado por las inversiones en centros de datos a hiperescala y la adopción por parte de las empresas. El Fondo Monetario Internacional prevé que la IA impulsará el PIB mundial en aproximadamente un 0,5% anual entre 2025 y 2030.
Lo que es más importante para las empresas estadounidenses: una prohibición unilateral podría acelerar el desarrollo de la IA en China. China ha logrado avances significativos en IA a pesar de las restricciones a la exportación de EE. UU., con empresas como DeepSeek y Alibaba lanzando modelos competitivos de código abierto que han sacudido Silicon Valley. Se considera que EE. UU. tiene actualmente una ventaja de unos cinco años en IA generativa, pero las enormes inversiones de China podrían reducir esa brecha.
Si la propuesta de prohibición no logra ganar terreno, como ocurrió con su predecesora en 2023, las empresas deben asumir que la gobernanza de la IA es una obligación a nivel directivo, según Gogia. “Ante la continua ausencia de normas globales aplicables sobre el desarrollo y el despliegue de la IA, la responsabilidad se descentraliza al nivel empresarial”, dice. “Los CIO deben construir barreras de protección basadas en la ética operativa, la defensión legal y la confianza de las partes interesadas”. Esto incluye formalizar consejos de IA, incorporar protocolos de respuesta a incidentes y firmar contratos con proveedores con obligaciones específicas en materia de IA, como la transparencia de los conjuntos de datos y los derechos de auditoría, según Gogia.
En el marco de la Unión Europea sí existe un reglamento (Data Act) que persigue garantizar el desarrollo y uso de la inteligencia artificial de manera segura y centrada en el ser humano. Este es, de hecho, el primer marco jurídico global que aborda los riesgos asociados con la inteligencia artificial, promoviendo una IA fiable en Europa.
(computerworld.es)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Ciberseguridad basada en AI, Ciberseguridad convencional, (Data centers, redes y dispositivos). Ciberseguridad multinube, Ciberseguridad en universo hiperconectado, Arquitecturas de Ciberseguridad basadas en AI», que estamos preparando para nuestra edición 217 y publicaremos en el mes de octubre.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.
