CoreWeave se convirtió en uno de los primeros proveedores de nube en poner en línea los sistemas NVIDIA GB200 NVL72 para clientes a gran escala, y las empresas de IA Cohere, IBM y Mistral AI ya los están utilizando para entrenar e implementar modelos y aplicaciones de IA de próxima generación. CoreWeave, el primer proveedor de servicios en la nube que ha hecho que NVIDIA Grace Blackwell esté disponible para el público en general, ya ha mostrado resultados increíbles en las pruebas de rendimiento de MLPerf con NVIDIA GB200 NVL72, una potente plataforma de computación acelerada a escala de rack diseñada para el razonamiento y los agentes de IA. Ahora, los clientes de CoreWeave están obteniendo acceso a miles de GPU NVIDIA Blackwell.
«Trabajamos en estrecha colaboración con NVIDIA para ofrecer rápidamente a los clientes las soluciones más recientes y potentes para entrenar modelos de IA y servir a la inferencia», dijo Mike Intrator, CEO de CoreWeave. «Con los nuevos sistemas de báscula de rack Grace Blackwell en la mano, muchos de nuestros clientes serán los primeros en ver los beneficios y el rendimiento de los innovadores de IA que operan a escala».
El aumento para los clientes de proveedores de nube como CoreWeave está en marcha. Los sistemas basados en NVIDIA Grace Blackwell están en plena producción, transformando los centros de datos en la nube en fábricas de IA que fabrican inteligencia a escala y convierten los datos sin procesar en información en tiempo real con velocidad, precisión y eficiencia.
Las principales empresas de IA de todo el mundo están poniendo ahora en práctica las capacidades del GB200 NVL72 para las aplicaciones de IA, la IA agentiva y el desarrollo de modelos de vanguardia.
Agentes de IA personalizados
Cohere está utilizando sus superchips Grace Blackwell para ayudar a desarrollar aplicaciones de IA empresarial seguras impulsadas por técnicas de investigación y desarrollo de modelos de vanguardia. Su plataforma de IA empresarial, North, permite a los equipos crear agentes de IA personalizados para automatizar de forma segura los flujos de trabajo empresariales, obtener información en tiempo real y mucho más.
Con NVIDIA GB200 NVL72 en CoreWeave, Cohere ya está experimentando hasta 3 veces más rendimiento en el entrenamiento para modelos de 100 mil millones de parámetros en comparación con las GPU NVIDIA Hopper de la generación anterior, incluso sin optimizaciones específicas de Blackwell.
Con optimizaciones adicionales que aprovechan la gran memoria unificada de GB200 NVL72, la precisión de FP4 y un dominio NVIDIA NVLink de 72 GPU, donde cada GPU está conectada para operar en conjunto, Cohere está obteniendo un rendimiento drásticamente mayor con un tiempo más corto para los primeros tokens y los tokens posteriores para una inferencia más rentable y de mayor rendimiento.
«Con acceso a algunos de los primeros sistemas NVIDIA GB200 NVL72 en la nube, estamos satisfechos con la facilidad con la que nuestras cargas de trabajo se transfieren a la arquitectura NVIDIA Grace Blackwell», dijo Autumn Moulder, vicepresidenta de ingeniería de Cohere. «Esto desbloquea una increíble eficiencia de rendimiento en toda nuestra pila, desde nuestra aplicación North integrada verticalmente que se ejecuta en una sola GPU Blackwell hasta la ampliación de trabajos de capacitación en miles de ellas. Esperamos lograr pronto un rendimiento aún mayor con optimizaciones adicionales».
Modelos de IA para empresas
IBM está utilizando una de las primeras implementaciones de sistemas NVIDIA GB200 NVL72, que se escala a miles de GPU Blackwell en CoreWeave, para entrenar sus modelos Granite de próxima generación, una serie de modelos de IA de código abierto listos para la empresa. Los modelos de granito ofrecen un rendimiento de última generación al tiempo que maximizan la seguridad, la velocidad y la rentabilidad. La familia de modelos Granite está respaldada por un sólido ecosistema de socios que incluye empresas de software líderes que incorporan grandes modelos de lenguaje en sus tecnologías.
Los modelos Granite proporcionan la base para soluciones como IBM watsonx Orchestrate, que permite a las empresas crear e implementar potentes agentes de IA que automatizan y aceleran los flujos de trabajo en toda la empresa.
La implementación de NVIDIA GB200 NVL72 de CoreWeave para IBM también aprovecha el IBM Storage Scale System, que ofrece un almacenamiento excepcional de alto rendimiento para IA. Los clientes de CoreWeave pueden acceder a la plataforma de almacenamiento de IBM dentro de los entornos dedicados de CoreWeave y la plataforma de nube de IA.
«Estamos entusiasmados de ver la aceleración que NVIDIA GB200 NVL72 puede aportar al entrenamiento de nuestra familia de modelos Granite», dijo Sriram Raghavan, vicepresidente de IA de IBM Research. «Esta colaboración con CoreWeave aumentará las capacidades de IBM para ayudar a construir modelos avanzados, de alto rendimiento y rentables para impulsar aplicaciones de IA empresariales y agentic con IBM Watsonx».
Recursos informáticos a escala
Mistral AI está recibiendo sus primeras mil GPU Blackwell para construir la próxima generación de modelos de IA de código abierto.
Mistral AI, líder en IA de código abierto con sede en París, está utilizando la infraestructura de CoreWeave, ahora equipada con GB200 NVL72, para acelerar el desarrollo de sus modelos de lenguaje. Con modelos como Mistral Large que ofrecen sólidas capacidades de razonamiento, Mistral necesita recursos informáticos rápidos a escala.
Para entrenar e implementar estos modelos de forma eficaz, Mistral AI requiere un proveedor de nube que ofrezca clústeres de GPU grandes y de alto rendimiento con redes NVIDIA Quantum InfiniBand y una gestión de infraestructura fiable. La experiencia de CoreWeave en la puesta en marcha de GPU NVIDIA a escala con una fiabilidad y resiliencia líderes en el sector a través de herramientas como CoreWeave Mission Control cumplió con estos requisitos.
«Nada más sacarlo de la caja y sin más optimizaciones, vimos una mejora de 2 veces en el rendimiento para el entrenamiento de modelos densos», dijo Thimothee Lacroix, cofundador y director de tecnología de Mistral AI. «Lo emocionante de NVIDIA GB200 NVL72 son las nuevas posibilidades que abre para el desarrollo y la inferencia de modelos».
Un número creciente de instancias de Blackwell
Además de las soluciones a largo plazo para los clientes, CoreWeave ofrece instancias con NVIDIA NVLink a escala de rack en 72 GPU NVIDIA Blackwell y 36 CPU NVIDIA Grace, que se amplían hasta 110 000 GPU con redes NVIDIA Quantum-2 InfiniBand.
Estas instancias, aceleradas por la plataforma de computación acelerada a escala de rack NVIDIA GB200 NVL72, proporcionan la escala y el rendimiento necesarios para crear e implementar la próxima generación de modelos y agentes de razonamiento de IA.