La mitad de los usuarios aún no confía en la IA, pero la gran mayoría reconoce su utilidad
El nuevo estudio global Confianza, actitudes y uso de la inteligencia artificial, de KPMG y la Universidad de Melbourne, revela que, si bien el 72% de las personas considera que la IA es una herramienta útil, la mitad no confía en su precisión y menciona preocupaciones sobre la seguridad, el uso indebido y la regulación insuficiente.
El estudio, en el que han participado 48.340 personas de 47 países, tiene como objetivo explorar el uso y las opiniones sobre la IA. Como conclusión más relevante destaca que el 54% de los encuestados se muestran “cautelosos”, especialmente en lo que respecta a la seguridad y el impacto social de la IA.
No obstante, a pesar de los sentimientos encontrados, el 72% acepta la IA como una herramienta técnica útil. La confianza y la aceptación son menores en las economías avanzadas (39% de confianza, 65% de aceptación) que en las economías emergentes (57% y 84%, respectivamente).
La falta de formación es una de las culpables de la inquietud de los encuestados con respecto a la IA. Sólo el 39% afirma haber recibido algún tipo de formación en IA, ya sea en el trabajo, en la escuela o de forma independiente; y casi la mitad (48%) afirma tener pocos conocimientos o comprensión de la IA. Por el contrario, las personas con formación en IA observan una mayor eficiencia (76% frente a 56%) y aumento de los ingresos (55% frente a 34%), mientras los directivos se benefician más que otros perfiles en ambas áreas.
Asimismo, el estudio de KPMG y la Universidad de Melbourne también revela que:
· La mayoría de las personas (70%) apoya la regulación de la IA, y sólo el 43% cree que las leyes actuales son adecuadas. De sus resultados se desprende que existe una fuerte demanda de regulación internacional (76%) y nacional (69%) y corregulación por parte de la industria, el Gobierno y otros reguladores (71%). Además, el 88% de los encuestados afirma que se necesitan leyes para combatir la desinformación impulsada por la IA.
· En el ámbito laboral, el 58% de los empleados utiliza habitualmente la IA, principalmente herramientas de IA generativa gratuitas. Más de la mitad de los encuestados afirma haber mejorado su rendimiento, pero muchos ven efectos negativos en la carga de trabajo, el trabajo en equipo y el cumplimiento normativo. El uso indebido y la falta de supervisión son habituales, y la gobernanza y la formación van a la zaga de la adopción.
· En educativo, el 83% de los estudiantes utiliza la IA para mejorar la eficiencia y reducir el estrés. Sin embargo, existe un uso indebido de la IA cada vez más extendido, lo que suscita preocupación por la dependencia excesiva, entre otros efectos perniciosos. Sólo la mitad afirma que sus centros educativos ofrecen políticas o formación adecuadas para un uso responsable de la IA.
En general, las conclusiones del estudio de KPMG y la Universidad de Melbourne son similares a las del informe State of Data Infrastructure publicado el año pasado por Hitachi Vantara. Dicho informe identificó una brecha “crítica” en la confianza en la IA: sólo el 36% de los responsables de TI confía habitualmente en los resultados de la IA, mientras que apenas el 38% de las organizaciones está mejorando la calidad de sus datos de formación.
Existen razones poderosas que sustentan esta desconfianza, pues estos sistemas son propensos a errores y alucinaciones (cosas que los modelos inventan pero presentan como hechos). Pruebas recientes de modelos de IA generativa muestran que incluso están dispuestos a ignorar las instrucciones humanas para elaborar después mentiras respecto a esas instrucciones.
Las alucinaciones empeoran
Jason Hardy, director de Tecnología de Hitachi Vantara, denominó la brecha de confianza como “la paradoja de la IA”. De hecho, ya advirtió de que la fiabilidad de la IA puede disminuir a medida que avance, su fiabilidad puede disminuir; y también que, sin datos de entrenamiento de calidad y sin protocolos para verificar los resultados, los sistemas de IA corren el riesgo de producir resultados inexactos.
En declaraciones a ComputerWorld, Hardy constata que “una parte fundamental para comprender la creciente prevalencia de las alucinaciones de la IA reside en la capacidad de rastrear el comportamiento del sistema hasta los datos de entrenamiento originales, lo que hace que la calidad y el contexto de los datos sean fundamentales para evitar un efecto dominó de alucinaciones”.
En opinión de Hardy, los modelos de IA experimentan dificultades con problemas técnicos de varios pasos, lo que da como resultado una acumulación de errores que pueden convertirse en importantes inexactitudes. Lo cual ocurre cada vez más en los sistemas más nuevos, según el director de Tecnología de Hitachi Vantrara.
Por eso cree que los modelos ahora dependen de fuentes nuevas, a menudo de menor calidad, dada la escasez de datos de entrenamiento originales. Tratar todos los datos como igual de valiosos no hace más que agravar el problema, pues se dificulta el rastreo y la corrección de las alucinaciones de la IA. Conforme se acelera el desarrollo global de la IA, la inconsistencia de los estándares de calidad de los datos se convierte en un reto a tener en cuenta. De ahí que, a su juicio, mientras algunos sistemas dan prioridad al coste, otros reconocen que un control de calidad riguroso es fundamental para reducir los errores y las alucinaciones a largo plazo.
Sin duda, una tendencia preocupante. The New York Times ha informado de que pruebas recientes muestran que las alucinaciones están aumentando en los sistemas de razonamiento de IA más nuevos, llegando a alcanzar un 79% en una prueba.
De hecho, la Comisión de Inteligencia Artificial (AIC), una organización dedicada a promover el desarrollo y la implementación responsables de la IA, informó recientemente de que las alucinaciones de la IA empeoran en lugar de mejorar.
Las pruebas realizadas por ChatGPT revelan que sus nuevos modelos de razonamiento o3 y o4-mini lanzaban alucinaciones la mayor parte del tiempo. En el caso del modelo o3, lo hacía en un 33% de las veces durante las pruebas PersonQA, que consiste en hacer preguntas al bot sobre personajes públicos. El modelo o3 respondía con alucinaciones en el 51% de las ocasiones en las pruebas SimpleQA, que plantean preguntas breves basadas en hechos.
Mientras, el modelo o4-mini, más pequeño y rápido, obtuvo peores resultados, con un 41% de alucinaciones en PersonQA y un 79% en SimpleQA. El nuevo modelo GPT-4.5, lanzado en febrero, obtuvo mejores resultados, con una tasa de alucinaciones del 37,1% en SimpleQA.
Para Brandon Purcell, vicepresidente y analista principal de Forrester Research, “el aumento de las alucinaciones en los modelos de razonamiento puede deberse muy bien a que la IA piensa demasiado”.
Los datos de la investigación de Forrester coinciden con otros análisis sobre la confianza en la IA: más de la mitad de los líderes empresariales se muestra preocupado por la IA generativa, lo que ralentiza su adopción y limita su valor, según la empresa de investigación. Cerrar esta brecha de confianza conlleva exigir transparencia, invertir en IA explicable y trazable, y supervisar el rendimiento en tiempo real por parte de las empresas, según Purcell.
De hecho, las alucinaciones son “una característica de los modelos de lenguaje grandes, no un error”, destaca aquel analista.
Purcell también quiere abundar en que “aunque no sabemos exactamente cómo funcionan los LLM, es probable que los datos de entrenamiento en sí no se almacenen en el modelo. El modelo es sólo una representación de los patrones estadísticos de los datos de entrenamiento». Si queremos reducir las alucinaciones, es necesario basar el modelo en un conjunto de datos canónicos correctos y actualizados utilizando la generación aumentada por recuperación u otra técnica que encuentre la respuesta en una fuente externa al modelo”.
El problema es que los grandes modelos de razonamiento lingüístico siguen procesos de varios pasos, lo que convierte los pequeños errores iniciales en alucinaciones. A medida que se repiten las preguntas, las alucinaciones pueden empeorar y volverse más extrañas. Purcell argumenta que los LLM se utilizan mejor para el razonamiento, mientras que los modelos más pequeños son más adecuados para preguntas y respuestas basadas en hechos.
De ahí que muchos crean que el futuro de la IA son los modelos pequeños, no los grandes.
Los SLM al rescate
Es probable que los pequeños modelos de lenguaje alcancen su máximo potencial en 2025, pues las empresas los implementarán cada vez más para abordar tareas específicas sin sobrecargar el procesamiento ni tampoco la potencia de los centros de datos. Un informe de Forrester destaca que la integración de los SLM podría aumentar hasta un 60% el próximo año.
Una reciente encuesta de Capital One a 4.000 líderes empresariales y profesionales técnicos de diversos sectores revela que, aunque el 87% cree que su ecosistema de datos está preparado para la IA a gran escala, el 70% de los tecnólogos dedica horas al día a solucionar problemas relacionados con los datos.
Además, una encuesta de Harris Poll realizada a más de 500 usuarios por encargo de la startup Hyperscience revela que tres de cada cuatro (75%) responsables de la toma de decisiones de TI cree que los SLM superan a los LLM en velocidad, coste, precisión y retorno de la inversión.
Como señaló Hardy, de Hitachi, la calidad de los datos que se introducen en los modelos de IA también es fundamental para su precisión.
Mientras, Andrew Joiner, director ejecutivo de Hyperscience, especialista en el desarrollo de herramientas de automatización del trabajo de oficina basadas en IA, declara que “es alarmante que tres de cada cinco responsables de la toma de decisiones afirmen que su falta de comprensión de sus propios datos les impide aprovechar al máximo el potencial de la IA genérica. El verdadero potencial reside en la adopción de SLM personalizados, que pueden transformar el procesamiento de documentos y mejorar la eficiencia operativa”.
Finalmente, Purcell recomienda a las empresas “probar exhaustivamente la IA” antes, durante y después de su implementación, utilizando personas o IA para la formación de equipos rojos. Los sistemas de alto riesgo, como la IA médica, deberían obtener primero una validación de las simulaciones que realizan, tal y como ocurre con las pruebas de los vehículos autónomos, dice para concluir.
(computerworld.es)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Arquitecturas de IA, Machine Learning, Deep Learning, Gemelos digitales y Soluciones de valor de Cloud Computing con innovadores modelos de negocio, soluciones de IOT, IOTI, soluciones de Automatización. Ciberseguridad, Infraestructura de conectividad: redes LAN, Wifi. Buenas prácticas corporativas.», que estamos preparando para nuestra edición 215 y publicaremos en el mes de junio.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.
