Durante NVIDIA GTC 2026, Intel anunció que Intel Xeon 6 se utiliza como procesador para los sistemas NVIDIA DGX Rubin NVL8. Esto pone de manifiesto el papel de Xeon en proporcionar continuidad arquitectónica y escalabilidad para sistemas de IA acelerados por GPU a medida que las cargas de trabajo se desvían hacia una inferencia masiva en tiempo real.
«La IA está pasando del entrenamiento a gran escala a un entrenamiento en tiempo real, en todas partes, guiado por inferencias por IA agente y sistemas de razonamiento», dijo Jeff McVeigh, vicepresidente corporativo y director general de Programas Estratégicos de Centro de Datos en Intel. «En esta nueva era, la CPU anfitriona es crítica para la misión. Regula la orquestación, el acceso a memoria, la seguridad de los modelos y el rendimiento en sistemas acelerados por GPU. Intel Xeon 6 ofrece un rendimiento de liderazgo, eficiencia y compatibilidad con el extenso ecosistema de software x86 del que los clientes confían para escalar cargas de trabajo de inferencia.»
A medida que las organizaciones continúan desplegando sistemas de IA, la inferencia se define cada vez más no solo por el rendimiento de la GPU, sino también por el rendimiento del sistema liderado por la CPU, siendo la CPU anfitriona quien determina la eficiencia global del clúster y el coste total de propiedad. También es responsable de funciones críticas como la gestión de memoria, la orquestación de tareas y la distribución de cargas de trabajo, asegurando al tiempo la seguridad, fiabilidad y continuidad operativa esenciales para la infraestructura moderna de IA.
Basándose en estos requisitos a nivel de sistema, los procesadores Intel Xeon se utilizan como CPU anfitriona para sistemas DGX Rubin NVL8 debido a su capacidad para soportar velocidades de memoria rápidas, rendimiento equilibrado en una variedad de cargas de trabajo, menor coste total de propiedad (TCO) a largo plazo y su ecosistema de software maduro y probado en la empresa. Además, las robustas capacidades PCIe e E/S de Intel refuerzan aún más el papel de Xeon como plataforma de alto ancho de banda y baja latencia en diversas cargas de trabajo.
- Rendimiento eficiente por vatio
- Soporte optimizado en toda la pila de software de IA del ecosistema, incluyendo nuevo soporte para NVIDIA Dynamo que permite una inferencia heterogénea entre CPU y próximas GPUs
- Fiabilidad probada en entornos críticos para la misión
- Orquestación superior de sistemas heterogéneos acelerados por GPU
Esta selección refuerza Intel Xeon como una piedra angular de la infraestructura moderna de IA, permitiendo un despliegue escalable en centros de datos modernos, en la nube y en casos de uso en la periferia. A medida que la inferencia de IA crece, la computación confidencial de extremo a extremo se vuelve esencial, desde la CPU hasta la ruta de datos de la GPU. Intel Trust Domain Extensions (TDX) añade aislamiento y atestación basados en hardware, reforzando aún más la selección de Xeon como base segura para los clústeres modernos de IA.
Sobre la nueva colaboración entre Intel y NVIDIA: Los sistemas NVIDIA DGX Rubin NVL8 integran procesadores Intel Xeon 6, basándose en la base arquitectónica establecida con Intel Xeon 6776P en plataformas actuales basadas en NVIDIA Blackwell, incluidos los sistemas DGX B300. Al basarse en esta base probada, Intel está ayudando a llevar el rendimiento, la experiencia y la experiencia a nivel de sistema en los nuevos sistemas DGX Rubin NVL8.
Intel diseñó Xeon para ayudar a estos sistemas a sacar el máximo partido a sus GPUs, utilizando funciones como Priority Core Turbo para mantener el flujo de datos hacia las GPUs, y con un sólido rendimiento en singlethread en la gestión de orquestación, programación y movimiento de datos, Xeon ayuda a garantizar que todo funcione de forma fluida y eficiente incluso cuando las cargas de trabajo de inferencia se vuelven más complejas.
Las características clave del Intel Xeon 6 incluyen:
- Hasta 8 TB de memoria del sistema para soportar modelos grandes y cachés KV en crecimiento
- Gen en generación 3 veces mayor de ancho de banda de memoria con tecnología MRDIMM, mejorando las tasas de alimentación de datos a las GPU
- Líneas PCIe 5.0 líderes en la industria para soportar aceleradores de IA y otros dispositivos
- Computación confidencial a través de rutas de datos CPU-GPU con Buffer de Rebote Cifrado
- El aislamiento basado en hardware protege los datos y modelos de IA mientras se utilizan

