La informática de borde hace que la IA sea más humana
Pruebe este sencillo ejercicio: siéntese con un ser querido o un colega para preguntarle sobre sus planes de vacaciones para el próximo verano, pero acuerde que esperará entre dos y diez segundos en silencio antes de decir algo después de cada una de sus preguntas. El resultado será una conversación incómoda, lenta y artificial; nada conversacional ni interesante.
A continuación, vaya a ChatGPT para preguntar sobre algún lugar en particular al que le gustaría ir de vacaciones el próximo verano. Lo que obtendrá es una experiencia similar. A veces, habrá un retraso poco natural entre cada una de sus preguntas y las respuestas que obtenga, además de alguna que otra respuesta incorrecta. Si está utilizando ChatGPT o la mayoría de las demás plataformas de inteligencia artificial en los negocios, está obteniendo esta experiencia a gran escala y está pagando generosamente por ella. Según una estimación de Accenture, más de la mitad de las empresas tienen dificultades para lograr que sus chatbots reconozcan contextos personales, una limitación que puede alejar a las empresas.
Una experiencia humana más natural y menos artificialmente inteligente requerirá una experiencia mucho más interactiva, atractiva y que no supere el presupuesto.
¿Por qué la espera?
Como lo demuestra el precio de las acciones de Nvidia, la IA ya está aportando una enorme cantidad de potencia informática al problema. Sí, habrá mejoras a medida que continúen los efectos de la Ley de Moore y las mejoras en la arquitectura de la GPU, pero solo pueden resolver parte del problema a un costo razonable. La IA actual sufre dos problemas fundamentales:
Proximidad: los servicios de IA se encuentran en centros de datos grandes y remotos, lo que genera demoras en la propagación, serialización y enrutamiento. Según McKinsey, alrededor del 70 por ciento de la demanda de nuevos centros de datos está impulsada por la IA, y no todos ellos pueden ubicarse en centros urbanos.
Procesamiento: Para intentar ser lo más correcta posible, la IA analiza en profundidad cada respuesta y escanea bases de datos y la web en busca de datos clave para sacar conclusiones.
¿Cómo lo hace la inteligencia humana?
Nuestros cerebros se enfrentan al mismo problema a escala local. La capacidad de reacción y adaptación instantáneas que nos ha convertido en supervivientes, nos ha llevado a la cima de la cadena alimentaria y nos ha convertido en buenos comunicadores proviene de la arquitectura de funcionamiento de nuestro cerebro, conocida en los círculos de la ciencia del comportamiento como Sistema 1 y Sistema 2.
En su investigación ganadora del premio Nobel y su posterior libro “Pensar rápido, pensar despacio”, que revolucionó la economía del comportamiento en 2011, Daniel Kahneman y Amos Tversky caracterizaron el cerebro humano como fundamentalmente dividido en el Sistema 1, un sistema de pensamiento rápido que utiliza “heurísticas” abreviadas para la mayoría de la toma de decisiones, y el Sistema 2, un sistema lento de pensamiento profundo para el razonamiento y el desarrollo de conceptos.
Nuestros sentidos tienen acceso rapidísimo al Sistema 1, y tomamos más del 95 por ciento de nuestras decisiones allí. Intentamos evitar usar el Sistema 2 lo menos posible, y es un recurso finito que solo puede funcionar en una cosa a la vez. Las heurísticas del Sistema 1 incluyen instintos, habilidades y, para aludir a una cuestión que será el tema de una discusión aparte sobre el futuro de la arquitectura de la IA, sesgos. La diferencia entre el español conversacional y la fluidez es si se encuentra en el Sistema 1 o en el 2. ¿Recuerdas lo difícil que fue aprender a conducir? Lo estabas haciendo en el Sistema 2, que tu cerebro odia usar. ¿Sabes de qué equipo de fútbol eres hincha? Al instante. Lo tienes almacenado en un sesgo en el Sistema 1.
En resumen, una de las limitaciones fundamentales de la IA para volverse menos artificial es que todo es Sistema 2.
IA en el Edge
El Edge ayuda a resolver uno de los problemas a los que se enfrenta la IA, la proximidad. No introduce latencia entre la E/S del usuario, los “sentidos”. Como se detalla en el informe de Gartner sobre los cinco impulsores de la informática Edge, también tiene más confiabilidad que los centros de datos locales, más X, más Y y más Z.
En términos de procesamiento, el Edge es al menos tan rentable en una escala limitada como la nube y es más dinámico, ya que utiliza Wasm (WebAssembly), un formato de instrucción binaria optimizado para la eficiencia y compatible con la compilación de lenguajes de alto nivel como C, C++ y Rust. Sin embargo, el Edge no puede rivalizar con la nube como el lugar para manejar las tareas que requieren un pensamiento profundo. En términos cerebrales, el Edge es el lugar para el Sistema 1 y la nube es el lugar para el Sistema 2.
Hay indicios tempranos de que la arquitectura de IA avanza en esta dirección. En agosto de 2024, en Fastly anunciamos una capacidad llamada “AI Accelerator” (Acelerador de IA), que utiliza una nueva capacidad llamada Semantic Caching (Almacenamiento en caché semántico). En un nivel básico, Semantic Caching “recuerda” las respuestas a las consultas a la IA, repitiendo la respuesta a preguntas semánticamente similares sin volver a preguntar al núcleo de la IA. En los ejemplos de chatbots, esto puede reducir los tiempos de respuesta y los costos básicos de la IA, que se miden en función del uso.
¿Y ahora qué?
Los siguientes pasos obvios en el desarrollo de la IA son que las aplicaciones de Edge creen más capacidades similares a las del Sistema 1: habilidades locales y comportamiento local para asemejarse a los instintos. ¿Aproximación local? Bueno, a veces una respuesta correcta rápidamente es mejor que una respuesta perfecta lentamente. La IA tendrá que mejorar en la comprensión, lo que es preferible cuando…
De todas formas, el Edge Computing será clave para dar ese siguiente paso, de modo que la IA pueda hacer las mejores conjeturas sobre el contexto y mantener conversaciones más fluidas y naturales sin la incómoda sensación transaccional de hablar con un robot. La IA actual está pensando demasiado en muchas tareas simples. Esto tiene que cambiar con el tiempo para que la IA pueda adaptarse a todos nosotros.
(datacenterdynamics.com)
Les estaremos informando con mucho más detalle, en el marco del informe especial: “Arquitecturas de IA y Soluciones de valor de Cloud Computing, Machine Learning, Deep Learning, con innovadores modelos de negocio, soluciones de IOT, IOTI, soluciones de Automatización. Infraestructura física, UPS, Cableado y gestión de cableado estructurado. POL (Passive Optical LAN). Ciberseguridad, infraestructura de conectividad: redes LAN, Wifi. Gaming: Hardware (CPU, monitores, periféricos, placas madres, memorias, PSU (Power Supply Unit), tarjetas de video), UPS y redes para gaming, Gaming Routers. Partes y piezas: Procesadores comunes y especializados. Buenas prácticas ambientales y corporativas», que estamos preparando para nuestra edición 211 y publicaremos en el mes de enero.
Mantente conectado a nuestra revista Channel News Perú, haciendo clic aquí y suscribiéndote a nuestro newsletter para contenido de valor diario.