AMD presentó su visión integral de plataforma de IA integrada de extremo a extremo y presentó su infraestructura de IA abierta y escalable a escala de rack basada en los estándares de la industria en su evento anual Advancing AI .
AMD y sus socios mostraron:
- Cómo están construyendo el ecosistema abierto de IA con los nuevos aceleradores AMD Instinct de la serie MI350
- El crecimiento continuo del ecosistema ROCm de AMD
- Los nuevos y potentes diseños abiertos a escala de rack y la hoja de ruta de la empresa que llevan el rendimiento de la IA a escala de rack más allá de 2027
AMD ofrece soluciones de liderazgo para acelerar el ecosistema de IA abierta
AMD anunció una amplia cartera de hardware, software y soluciones para impulsar todo el espectro de la IA:
- AMD presentó las GPU de la serie Instinct MI350, estableciendo un nuevo punto de referencia para el rendimiento, la eficiencia y la escalabilidad en IA generativa y computación de alto rendimiento. La serie MI350, que consta de GPU y plataformas Instinct MI350X y MI355X, ofrece un aumento de 4 veces en la computación de IA de generación en generación y un salto generacional de 35 veces en la inferencia, allanando el camino para soluciones de IA transformadoras en todas las industrias.
- AMD demostró una infraestructura de IA a escala de rack de estándares abiertos y de extremo a extremo, que ya se está implementando con los aceleradores AMD Instinct™ MI350 Series, los procesadores AMD EPYC de 5.ª generación y las NIC AMD Pensando Pollara en implementaciones de hiperescala como Oracle Cloud Infrastructure (OCI) y está configurada para una amplia disponibilidad en el segundo semestre de 2025. AMD también adelantó su rack de IA de próxima generación llamado «Helios». Se construirá sobre las GPU AMD Instinct MI400 Series de próxima generación, las CPU AMD EPYC «Venice» basadas en «Zen 6» y las NIC AMD Pensando «Vulcano».
- La última versión de la pila de software de IA de código abierto de AMD, ROCm 7, está diseñada para satisfacer las crecientes demandas de la IA generativa y las cargas de trabajo de computación de alto rendimiento, al tiempo que mejora drásticamente la experiencia de los desarrolladores en todos los ámbitos. ROCm 7 presenta soporte mejorado para marcos estándar de la industria, compatibilidad de hardware ampliada y nuevas herramientas de desarrollo, controladores, API y bibliotecas para acelerar el desarrollo y la implementación de IA.
- La serie Instinct MI350 superó el objetivo de cinco años de AMD de mejorar la eficiencia energética de los nodos de entrenamiento de IA y computación de alto rendimiento en 30 veces, lo que finalmente brindó una mejora de 38 veces. AMD también dio a conocer un nuevo objetivo para 2030 para ofrecer un aumento de 20 veces en la eficiencia energética a escala de rack a partir de un año base 2024, lo que permite que un modelo de IA típico que hoy requiere más de 275 racks se entrene en menos de un rack completamente utilizado para 2030, utilizando un 95% menos de electricidad.
- AMD también anunció la amplia disponibilidad de AMD Developer Cloud para las comunidades globales de desarrolladores y código abierto. Diseñado específicamente para el desarrollo rápido y de alto rendimiento de IA, los usuarios tendrán acceso a un entorno de nube totalmente administrado con las herramientas y la flexibilidad para comenzar con proyectos de IA y crecer sin límites. Con ROCm 7 y AMD Developer Cloud, AMD está reduciendo las barreras y ampliando el acceso a la computación de próxima generación. Las colaboraciones estratégicas con líderes como Hugging Face, OpenAI y Grok están demostrando el poder de las soluciones abiertas desarrolladas conjuntamente.
Un amplio ecosistema de socios muestra el progreso de la IA impulsada por AMD
Los clientes de AMD hablaron sobre cómo están utilizando las soluciones de IA de AMD para entrenar los principales modelos de IA de la actualidad, impulsar la inferencia a escala y acelerar la exploración y el desarrollo de la IA:
- Meta detalló cómo ha aprovechado varias generaciones de soluciones AMD Instinct y EPYC en toda su infraestructura de centro de datos, con Instinct MI300X ampliamente implementado para la inferencia de Llama 3 y Llama 4. Meta sigue colaborando estrechamente con AMD en las hojas de ruta de la IA, incluidos los planes para aprovechar las GPU y las plataformas de las series MI350 y MI400.
- Oracle Cloud Infrastructure es uno de los primeros líderes del sector en adoptar la infraestructura de IA a escala de rack abierto de AMD con las GPU AMD Instinct MI355X. OCI aprovecha las CPU y GPU de AMD para ofrecer un rendimiento equilibrado y escalable para clústeres de IA, y anunció que ofrecerá clústeres de IA a gran escala acelerados por los últimos procesadores AMD Instinct con hasta 131.072 GPU MI355X para permitir a los clientes crear, entrenar e inferir IA a escala.
- Microsoft anunció que Instinct MI300X ahora está impulsando modelos propietarios y de código abierto en producción en Azure.
- HUMAIN habló sobre su acuerdo histórico con AMD para construir una infraestructura de IA abierta, escalable, resistente y rentable que aproveche todo el espectro de plataformas informáticas que solo AMD puede proporcionar.
- Cohere compartió que sus modelos Command escalables y de alto rendimiento se implementan en Instinct MI300X, lo que impulsa la inferencia LLM de nivel empresarial con alto rendimiento, eficiencia y privacidad de datos.
- Red Hat describió cómo su colaboración ampliada con AMD permite entornos de IA listos para la producción, con las GPU AMD Instinct en Red Hat OpenShift AI que ofrecen un procesamiento de IA potente y eficiente en entornos de nube híbrida.
- Astera Labs destacó cómo el ecosistema abierto de UALink acelera la innovación y ofrece un mayor valor a los clientes, y compartió planes para ofrecer una cartera completa de productos UALink para respaldar la infraestructura de IA de próxima generación.
- Marvell se unió a AMD para compartir la hoja de ruta del switch UALink, la primera interconexión verdaderamente abierta, que aporta la máxima flexibilidad para la infraestructura de IA.