Amazon Web Services (AWS) y OpenAI anunciaron una asociación estratégica de varios años que proporciona la infraestructura de clase mundial de AWS para ejecutar y escalar las cargas de trabajo principales de inteligencia artificial (IA) de OpenAI a partir de ahora. Bajo este nuevo acuerdo de $ 38 mil millones, que tendrá un crecimiento continuo durante los próximos siete años, OpenAI está accediendo a la computación de AWS que comprende cientos de miles de GPU NVIDIA de última generación, con la capacidad de expandirse a decenas de millones de CPU para escalar rápidamente las cargas de trabajo de los agentes. AWS tiene una experiencia inusual en la ejecución de infraestructura de IA a gran escala de forma segura, confiable y a escala, con clústeres que superan los 500 mil chips. El liderazgo de AWS en infraestructura en la nube combinado con los avances pioneros de OpenAI en IA generativa ayudará a millones de usuarios a seguir obteniendo valor de ChatGPT.
El rápido avance de la tecnología de IA ha creado una demanda sin precedentes de potencia informática. A medida que los proveedores de modelos de frontera buscan llevar sus modelos a nuevas alturas de inteligencia, recurren cada vez más a AWS debido al rendimiento, la escala y la seguridad que pueden lograr. OpenAI comenzará a utilizar inmediatamente la computación de AWS como parte de esta asociación, con toda la capacidad prevista para implementarse antes de finales de 2026 y la capacidad de expandirse aún más en 2027 y más allá.
La implementación de infraestructura que AWS está creando para OpenAI presenta un diseño arquitectónico sofisticado optimizado para la máxima eficiencia y rendimiento del procesamiento de IA. La agrupación en clústeres de las GPU NVIDIA, tanto GB200 como GB300, a través de Amazon EC2 UltraServers en la misma red permite un rendimiento de baja latencia en sistemas interconectados, lo que permite a OpenAI ejecutar cargas de trabajo de manera eficiente con un rendimiento óptimo. Los clústeres están diseñados para admitir diversas cargas de trabajo, desde servir inferencia para ChatGPT hasta entrenar modelos de próxima generación, con la flexibilidad de adaptarse a las necesidades cambiantes de OpenAI.
«Escalar la IA de frontera requiere una computación masiva y confiable», dijo el cofundador y CEO de OpenAI, Sam Altman. «Nuestra asociación con AWS fortalece el amplio ecosistema informático que impulsará esta próxima era y brindará IA avanzada a todos».
«A medida que OpenAI continúa ampliando los límites de lo que es posible, la mejor infraestructura de AWS servirá como columna vertebral para sus ambiciones de IA», dijo Matt Garman, CEO de AWS. «La amplitud y la disponibilidad inmediata de la computación optimizada demuestran por qué AWS está en una posición única para admitir las vastas cargas de trabajo de IA de OpenAI».
Esta noticia continúa el trabajo conjunto de las empresas para proporcionar tecnología de inteligencia artificial de vanguardia para beneficiar a organizaciones de todo el mundo. A principios de este año, los modelos de base de peso abierto de OpenAI estuvieron disponibles en Amazon Bedrock, brindando estas opciones de modelos adicionales a millones de clientes en AWS. OpenAI se ha convertido rápidamente en uno de los proveedores de modelos disponibles públicamente más populares en Amazon Bedrock con miles de clientes, incluidos Bystreet, Comscore, Peloton, Thomson Reuters, Triomics y Verana Health, que trabajan con sus modelos para flujos de trabajo agentes, codificación, análisis científico, resolución de problemas matemáticos y más.

