Tags :inferencia

Destacados

Nuevo chip optimizado para inferencia: Maia 200 de Microsoft

Microsoft presentó ayer el chip acelerador Maia 200, que representa un importante movimiento del proveedor en su estrategia de infraestructura de IA, siendo su primera plataforma de silicio y sistemas optimizada específicamente para la inferencia de modelos de lenguaje de gran escala (LLM) y razonamiento moderno. Este chip ha sido diseñado con el objetivo de transformar […]Leer más

IA Y CIBERSEGURIDAD

Por qué la inferencia redefine la arquitectura de IA en 2026

Durante los últimos años, la conversación sobre inteligencia artificial estuvo dominada por la carrera por entrenar modelos cada vez más grandes, complejos y costosos. Sin embargo, de cara a 2026, el eje del debate tecnológico comienza a desplazarse: el verdadero desafío ya no está en cómo entrenar modelos de IA, sino en cómo operarlos de forma eficiente, […]Leer más

Tech

Intel revela Crescent Island: nueva GPU optimizada para inferencia de IA en centros de datos

En el OCP Global Summit 2025, Intel presentó Crescent Island, una GPU especialmente diseñada para centros de datos que responde a la demanda global de cargas de trabajo de inferencia en inteligencia artificial (IA). Este nuevo acelerador prioriza la eficiencia energética, el alto rendimiento y una gran capacidad de memoria, posicionando a la compañía como un proveedor integral de soluciones […]Leer más

Tech

NetApp e Intel anuncian una solución integrada de inferencia de IA

NetApp e Intel se alían y anuncian una solución para impulsar la adopción de la inferencia de inteligencia artificial IA). Esta solución conjunta se llama NetApp AIPod Mini y ofrece procesadores Intel Xeon 6 e Intel Advanced Matrix Extensions (AMX), almacenamiento all-flash de NetApp, gestión avanzada de datos e integración con Kubernetes. Construida sobre un marco abierto impulsado por Open Platform […]Leer más