Solucionar el problema de precisión de la IA: el caso estratégico de los modelos lingüísticos pequeños

Las empresas están invirtiendo en IA más que nunca. Sin embargo, ha surgido un patrón preocupante: hasta el 60% de los resultados de las consultas son incorrectos. En sectores en los que la precisión es de suma importancia, como las finanzas y la sanidad, esto supone un riesgo significativo tanto para la confianza del consumidor como para la rentabilidad de la inversión.
Las empresas no pueden permitirse confiar más en la tecnología incorrecta que en la correcta. Para solucionar esto, sin embargo, no deberían centrarse únicamente en su potencia informática o en su modelo de datos masivos. En su lugar, deberían priorizar la elección del modelo de IA adecuado que se adapte a sus necesidades.
Mientras que los grandes modelos lingüísticos (LLM) destacan en aplicaciones amplias y de propósito general, a menudo tienen dificultades con el contexto específico del dominio, que es crucial para el trabajo especializado. Los modelos lingüísticos pequeños pueden ofrecer soluciones más precisas, sin costes adicionales ni el riesgo de cumplimiento normativo de los grandes modelos públicos de IA.
Dimensionar correctamente la IA para su despliegue en el mundo real
Para 2027, Gartner predice que las empresas tendrán tres veces más probabilidades de utilizar modelos de IA pequeños y específicos para una tarea que modelos de uso general. Además, se espera que el mercado de adopción de modelos lingüísticos pequeños (SLM) crezca exponencialmente, de 900 millones de dólares en 2025 a 5.400 millones en 2032, lo que supone un aumento de casi seis veces.
El cambio en las preferencias de los modelos es revelador: la precisión triunfa sobre la escala, y esto tiene muchas ventajas. Los SLM requieren menos datos y potencia de cálculo, lo que los hace más accesibles para las empresas que no disponen de instalaciones de procesamiento y almacenamiento de datos a gran escala. Esto puede acelerar los ciclos de formación, reduciendo costes y racionalizando recursos.
El aumento de la eficiencia es considerable. Mientras que los LLM pueden requerir semanas de formación en conjuntos de datos masivos, los SLM pueden ajustarse a dominios específicos en cuestión de días u horas. Esta agilidad permite una rápida iteración y despliegue, lo que permite a las empresas adaptar los sistemas de IA a las cambiantes necesidades operativas sin largos ciclos de desarrollo ni costes prohibitivos.
Además, los SLM se traducen en tiempos de inferencia más rápidos y una menor sobrecarga operativa, todos ellos factores críticos para los centros de datos que gestionan cargas de trabajo en tiempo real a través de infraestructuras distribuidas. Cuando las respuestas de la IA deben fundamentar decisiones operativas inmediatas, los milisegundos importan.
Arquitectura de IA que da prioridad a la privacidad
El cumplimiento de las normativas es fundamental en los sectores altamente regulados, y los modelos de lenguaje reducido ofrecen ventajas integradas para las implantaciones respetuosas con la privacidad. Las alucinaciones o imprecisiones en los sistemas de IA generativa han provocado importantes riesgos financieros y de reputación. En el peor de los casos, esto puede dar lugar a costosas demandas o incluso prohibiciones de comercialización.
Por ello, la solidez técnica y la seguridad se han convertido en prioridades normativas de primer orden. Las empresas deben crear estructuras de gobernanza que garanticen la precisión, la transparencia y la resistencia. Las SLM admiten la implementación en las instalaciones y en Edge, esencial para las industrias con estrictos requisitos de gobernanza de datos.
Mantener los datos locales ayuda a cumplir con GDPR, HIPAA y otras normas reglamentarias, al tiempo que reduce la exposición a riesgos de terceros. Para los operadores de centros de datos que gestionan información confidencial de clientes o los proveedores de telecomunicaciones que manejan inteligencia de red, esta capacidad de despliegue local es esencial para el cumplimiento normativo.
La ventaja de la IA híbrida
Las implantaciones de IA más eficaces combinan SLM con LLM de nivel básico. Mientras que los primeros pueden gestionar tareas específicas de la materia con precisión y eficacia, los segundos proporcionan un conocimiento más amplio del contexto, comprensión del habla y del diálogo y generación de respuestas sofisticadas.
Este enfoque permite diversos modelos de despliegue. Los SLM funcionan como fuentes de conocimiento integradas que ofrecen un razonamiento y un resumen específicos, al tiempo que mantienen las relaciones de dominio. Por ejemplo, en Microsoft Edge, los SLM pueden proporcionar inferencias de bajo consumo para aplicaciones específicas del dominio, como respuesta telemétrica en tiempo real para análisis web, correlación inteligente de eventos entre sesiones del navegador, procesamiento automatizado de lógica empresarial para flujos de trabajo de comercio electrónico y filtrado contextual de contenidos, todo ello manteniendo la privacidad del usuario y reduciendo las dependencias del servidor.
Estas arquitecturas híbridas equilibran la agilidad con la gobernanza, optimizando los costes y el control de los datos al tiempo que garantizan que cada sistema de IA cumpla la función prevista en el ecosistema operativo.
De la experimentación a la ejecución
La brecha en la precisión de la IA es una preocupación creciente, pero también solucionable. Los SLM ofrecen un camino práctico y escalable hacia soluciones más fiables, especialmente en sectores en los que la confianza, la conformidad y la velocidad no son negociables.
Los SLM ofrecen precisión específica para cada dominio, ciclos de implantación más rápidos y conformidad integrada sin la sobrecarga de una infraestructura masiva. A medida que las empresas pasen de la experimentación a la ejecución, estos modelos desempeñarán un papel fundamental en la configuración de la próxima fase de madurez de la IA.
(datacenterdynamics.com)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Ciberseguridad basada en AI, Ciberseguridad convencional, (Data centers, redes y dispositivos). Ciberseguridad multinube, Ciberseguridad en universo hiperconectado, Arquitecturas de Ciberseguridad basadas en AI», que estamos preparando para nuestra edición 217 y publicaremos en el mes de octubre.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.
