En AWS re:Invent, NVIDIA y Amazon Web Services ampliaron su colaboración estratégica con nuevas integraciones tecnológicas a través de tecnología de interconexión, infraestructura en la nube, modelos abiertos e IA física. Como parte de esta expansión, AWS dará soporte a NVIDIA NVLink Fusion—una plataforma para infraestructura de IA personalizada—para desplegar su silicio diseñado a medida, incluyendo chips Trainium4 de próxima generación para inferencia y entrenamiento de modelos de IA agente, CPUs Graviton para una amplia gama de cargas de trabajo y la infraestructura de virtualización del Sistema Nitro.
Utilizando NVIDIA NVLink Fusion, AWS combinará la interconexión de escalado NVIDIA NVLink y la arquitectura de rack NVIDIA MGX con silicio personalizado de AWS para aumentar el rendimiento y acelerar el tiempo de lanzamiento al mercado de sus capacidades de IA a escala cloud de próxima generación. AWS está diseñando Trainium4 para integrarlo con NVLink y NVIDIA MGX, la primera de una colaboración multigeneracional entre NVIDIA y AWS para NVLink Fusion. AWS ya ha desplegado racks MGX a gran escala con GPUs NVIDIA. Integrar NVLink Fusion permitirá a AWS simplificar aún más el despliegue y la gestión de sistemas en sus plataformas.
AWS también puede aprovechar el ecosistema de proveedores NVLink Fusion, que proporciona todos los componentes necesarios para un despliegue completo en rack, desde el rack y chasis, hasta los sistemas de suministro de energía y refrigeración.
Al soportar el adaptador Elastic Fabric y el sistema Nitro de AWS, la arquitectura NVIDIA Vera Rubin en AWS ofrecerá a los clientes opciones de red robustas, manteniendo la compatibilidad total con la infraestructura en la nube de AWS y acelerando el despliegue de nuevos servicios de IA.
«La demanda de computación de GPU está disparándose: más computación genera una IA más inteligente, una IA más inteligente impulsa un uso más amplio y un uso más amplio genera demanda de aún más computación. «Ha llegado el ciclo virtuoso de la IA», dijo Jensen Huang, fundador y CEO de NVIDIA. «Con NVIDIA NVLink Fusion llegando a AWS Trainium4, estamos unificando nuestra arquitectura de escalabilidad con el silicio personalizado de AWS para construir una nueva generación de plataformas aceleradas. Juntos, NVIDIA y AWS están creando la estructura de cómputo para la revolución industrial de la IA — llevando la IA avanzada a todas las empresas, en todos los países, y acelerando el camino mundial hacia la inteligencia.»
«AWS y NVIDIA han trabajado codo con codo durante más de 15 años, y hoy marca un nuevo hito en ese camino», dijo Matt Garman, CEO de AWS. «Con NVIDIA, estamos avanzando en nuestra infraestructura de IA a gran escala para ofrecer a los clientes el máximo rendimiento, eficiencia y escalabilidad. El próximo soporte de NVIDIA NVLink Fusion en AWS Trainium 4, Graviton y el sistema Nitro aportará nuevas capacidades a los clientes para que puedan innovar más rápido que nunca.»
Convergencia de Escala y Soberanía AWS ha ampliado su cartera de computación acelerada con la arquitectura NVIDIA Blackwell, incluyendo las GPUs NVIDIA HGX B300 y NVIDIA GB300 NVL72, proporcionando a los clientes acceso inmediato a las GPUs más avanzadas de la industria para entrenamiento e inferencia. Se espera la disponibilidad de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, diseñadas para aplicaciones visuales, en AWS en las próximas semanas.
Estas GPUs forman parte de la infraestructura troncal de AWS que impulsa AWS AI Factories, una nueva oferta de nube de IA que proporcionará a clientes de todo el mundo la infraestructura dedicada que necesitan para aprovechar servicios y capacidades avanzadas de IA en sus propios centros de datos, operados por AWS, permitiendo al mismo tiempo que los clientes mantengan el control de sus datos y cumplan con la normativa local.
NVIDIA y AWS se comprometen a desplegar nubes de IA soberanas a nivel global y a llevar lo mejor de la innovación en IA al mundo. Con el lanzamiento de AWS AI Factories, las empresas están proporcionando una infraestructura de IA segura y soberana para ofrecer capacidades informáticas sin precedentes a organizaciones de todo el mundo, cumpliendo con requisitos cada vez más rigurosos de IA soberana.
Para las organizaciones del sector público, las Fábricas de IA de AWS transformarán el panorama federal de supercomputación e IA. Los clientes de AWS AI Factories podrán integrar sin problemas la infraestructura y servicios en la nube líderes del sector de AWS —conocidos por su fiabilidad, seguridad y escalabilidad— con GPUs NVIDIA Blackwell y la plataforma de computación acelerada de stack completo NVIDIA, incluyendo switches NVIDIA Spectrum-X Ethernet.
La arquitectura unificada garantizará que los clientes puedan acceder a servicios y capacidades avanzadas de IA, así como entrenar y desplegar modelos masivos, manteniendo el control absoluto de los datos propietarios y el cumplimiento total de los marcos regulatorios locales.
La integración de NVIDIA Nemotron con Amazon Bedrock amplía las optimizaciones de softwareMás allá del hardware, la colaboración amplía la integración de la pila de software de NVIDIA con el ecosistema de IA de AWS. Los modelos abiertos NVIDIA Nemotron están ahora integrados con Amazon Bedrock, lo que permite a los clientes crear aplicaciones y agentes de IA generativa a escala de producción. Los desarrolladores pueden acceder a Nemotron Nano 2 y Nemotron Nano 2 VL para crear aplicaciones especializadas de IA agente que procesan texto, código, imágenes y vídeo con alta eficiencia y precisión.
La integración hace que modelos de NVIDIA abiertos y de alto rendimiento sean accesibles al instante a través de la plataforma serverless de Amazon Bedrock, donde los clientes pueden confiar en una escalabilidad probada y sin ninguna gestión de infraestructura. Los líderes del sector CrowdStrike y BridgeWise son los primeros en utilizar el servicio para desplegar agentes especializados en IA.
NVIDIA Software en AWS simplifica la experiencia de los desarrolladoresNVIDIA y AWS también están co-ingeniería a nivel de software para acelerar la columna vertebral de datos de cada empresa. Amazon OpenSearch Service ahora ofrece aceleración de GPU sin servidor para la construcción de índices vectoriales, impulsada por NVIDIA cuVS, una biblioteca de código abierto para búsqueda vectorial acelerada por GPU y agrupación de datos. Este hito representa un cambio fundamental hacia el uso de GPUs para el procesamiento de datos no estructurados, con los primeros usuarios viendo una indexación vectorial hasta 10 veces más rápida a una cuarta parte del coste.
Estas ganancias dramáticas reducen la latencia de búsqueda, aceleran las escrituras y desbloquean una productividad más rápida para técnicas dinámicas de IA como la generación aumentada por recuperación, entregando la cantidad adecuada de potencia de GPU precisamente cuando se necesita. AWS es el primer proveedor importante de nube en ofrecer indexación vectorial serverless con GPUs NVIDIA.
Los agentes de IA listos para producción requieren visibilidad del rendimiento, optimización e infraestructura escalable. Al combinar Strands Agents para el desarrollo y orquestación de agentes, el NVIDIA NeMo Agent Toolkit para perfilado profundo y ajuste de rendimiento, y Amazon Bedrock AgentCore para una infraestructura de agentes segura y escalable, las organizaciones pueden dotar a los desarrolladores de un camino completo y predecible desde el prototipo hasta la producción.
Este soporte ampliado se basa en las integraciones existentes de AWS con tecnologías NVIDIA —incluyendo microservicios NIM de NVIDIA y frameworks como NVIDIA Riva y NVIDIA BioNeMo, así como herramientas de desarrollo de modelos integradas con Amazon SageMaker y Amazon Bedrock— que permiten a las organizaciones desplegar IA agente, IA de voz y aplicaciones científicas más rápido que nunca.
Aceleración de la IA física con AWS La IA física que desarrolla requiere conjuntos de datos de alta calidad y diversos para entrenar modelos de robots, así como marcos para pruebas y validaciones en simulación antes del despliegue en el mundo real.Los
modelos de base mundial (WFMs) de NVIDIA Cosmos ya están disponibles como microservicios NIM de NVIDIA en Amazon EKS, permitiendo cargas de trabajo de control y simulación robótica en tiempo real con fiabilidad fluida y eficiencia nativa en la nube. Para tareas basadas en lotes y cargas de trabajo offline, como la generación de datos sintéticos a gran escala, los WFM de Cosmos también están disponibles en AWS Batch como contenedores.
Los estados del mundo generados por Cosmos pueden luego usarse para entrenar y validar robots utilizando marcos de simulación y aprendizaje de código abierto como NVIDIA Isaac Sim e Isaac Lab.
Empresas líderes en robótica como Agility Robotics, Agile Robots, ANYbotics, Diligent Robotics, Dyna Robotics, Field AI, Haply Robotics, Lightwheel, RIVR y Skild AI utilizan la plataforma NVIDIA Isaac junto con AWS para casos de uso que van desde la recopilación, almacenamiento y procesamiento de datos generados por robots hasta entrenamiento y simulación para escalar el desarrollo robótico.
Colaboración sostenida
Subrayando años de colaboración continua, NVIDIA obtuvo el premio AWS Global GenAI Infrastructure and Data Partner of the Year, que reconoce a los principales socios tecnológicos con la Competencia en IA Generativa que soportan incrustaciones vectoriales, almacenamiento y gestión de datos o generación de datos sintéticos en múltiples tipos y formatos.

