NoticiasTecnología

AMD dió más detalles sobre los procesadores EPYC

AMD dió más detalles sobre los procesadores EPYC

Durante el evento «Data Center and AI Technology Premiere», AMD anunció los productos, la estrategia y los socios del ecosistema que darán forma al futuro de la informática, destacando la próxima fase de innovación del centro de datos. AMD se unió en el escenario con ejecutivos de Amazon Web Services (AWS), Citadel, Hugging Face, Meta, Microsoft Azure y PyTorch para mostrar las asociaciones tecnológicas con líderes de la industria para llevar al mercado la próxima generación de CPU de alto rendimiento y soluciones de acelerador de IA.

«Hoy hemos dado otro paso significativo en nuestra estrategia de centros de datos al ampliar nuestra familia de procesadores EPYC de 4ª generación con nuevas soluciones de liderazgo para cargas de trabajo de computación técnica y en la nube, y hemos anunciado nuevas instancias públicas y despliegues internos con los mayores proveedores de cloud», ha declarado la presidenta y CEO de AMD, la Dra. Lisa Su. «La IA es la tecnología definitoria que da forma a la próxima generación de computación y la mayor oportunidad de crecimiento estratégico para AMD. Estamos centrados como un láser en acelerar el despliegue de las plataformas de IA de AMD a escala en el centro de datos, liderados por el lanzamiento de nuestros aceleradores Instinct MI300 previsto para finales de este año y el creciente ecosistema de software de IA listo para la empresa optimizado para nuestro hardware.»

Infraestructura de computación optimizada para el centro de datos moderno

AMD presentó una serie de actualizaciones de su familia EPYC de 4ª generación, diseñadas para ofrecer a los clientes la especialización de cargas de trabajo necesaria para abordar las necesidades únicas de las empresas.

  • El avance de la mejor CPU del mundo para centros de datos. AMD destacó cómo la 4ª generación de procesadores AMD EPYC continúa impulsando el liderazgo en rendimiento y eficiencia energética. AMD se unió a AWS para destacar un avance de la próxima generación de instancias Amazon Elastic Compute Cloud (Amazon EC2) M7a, impulsadas por procesadores AMD EPYC de 4ª generación («Genoa»). Fuera del evento, Oracle anunció sus planes de poner a disposición nuevas instancias Oracle Computing Infrastructure (OCI) E5 con procesadores AMD EPYC de 4ª generación.
  • Computación nativa en la nube sin compromisos. AMD presentó los procesadores AMD EPYC 97X4 de 4ª generación, antes llamados «Bergamo». Con 128 núcleos «Zen 4c» por zócalo, estos procesadores proporcionan la mayor densidad de vCPU y un rendimiento líder en la industria para aplicaciones que se ejecutan en la nube, así como una eficiencia energética de liderazgo. AMD se unió a Meta, que discutió cómo estos procesadores son adecuados para sus aplicaciones principales, como Instagram, WhatsApp y más; cómo Meta está viendo impresionantes ganancias de rendimiento con los procesadores AMD EPYC 97×4 de 4ª generación en comparación con los AMD EPYC de 3ª generación a través de diversas cargas de trabajo, al tiempo que ofrece mejoras sustanciales en el coste total de propiedad, y cómo AMD y Meta optimizaron las CPU EPYC para los requisitos de eficiencia energética y densidad de computación de Meta.
  • Mejores productos gracias a la informática técnica. AMD presentó la 4ª generación de procesadores AMD EPYC con tecnología AMD 3D V-Cache, la CPU de servidor x86 de mayor rendimiento del mundo para computación técnica. Microsoft anunció la disponibilidad general de las instancias Azure HBv4 y HX, impulsadas por procesadores AMD EPYC de 4ª generación con tecnología AMD 3D V-Cache.

Plataforma AMD AI – La visión omnipresente de la IA

AMD ha presentado una serie de anuncios que muestran su estrategia de plataforma de IA, que ofrece a los clientes una cartera de productos de hardware de la nube, al borde y al punto final, con una profunda colaboración de software de la industria, para desarrollar soluciones de IA escalables y omnipresentes.

  • Presentamos el acelerador más avanzado del mundo para IA generativa4. AMD ha revelado nuevos detalles de la familia de aceleradores AMD Instinct MI300 Series, incluida la presentación del acelerador AMD Instinct MI300X, el acelerador más avanzado del mundo para IA generativa. El MI300X se basa en la arquitectura de acelerador AMD CDNA 3 de última generación y admite hasta 192 GB de memoria HBM3 para proporcionar la eficiencia de cálculo y memoria necesaria para el entrenamiento e inferencia de modelos de lenguaje de gran tamaño para cargas de trabajo de IA generativa. Con la gran capacidad de memoria de AMD Instinct MI300X, los clientes pueden ahora entrenar grandes modelos de lenguaje como Falcon-40, un modelo de 40B parámetros en un único acelerador MI300X. AMD también ha presentado la plataforma AMD Instinct, que reúne ocho aceleradores MI300X en un diseño estándar del sector para ofrecer la solución definitiva para la inferencia y el entrenamiento de IA. El MI300X se distribuirá a clientes clave a partir del tercer trimestre. AMD también ha anunciado que AMD Instinct MI300A, el primer acelerador APU del mundo para cargas de trabajo HPC e IA, ya está disponible para los clientes.
  • Llevando al mercado una plataforma de software de IA abierta, probada y preparada. AMD presentó el ecosistema de software ROCm para aceleradores de centros de datos, destacando la preparación y las colaboraciones con líderes del sector para reunir un ecosistema de software de IA abierto. PyTorch discutió el trabajo entre AMD y la Fundación PyTorch para integrar completamente la pila de software ROCm, proporcionando soporte inmediato «día cero» para PyTorch 2.0 con la versión 5.4.2 de ROCm en todos los aceleradores AMD Instinct. Esta integración ofrece a los desarrolladores una amplia gama de modelos de IA basados en PyTorch que son compatibles y están listos para su uso en los aceleradores AMD. Hugging Face, la plataforma abierta líder para desarrolladores de IA, ha anunciado que optimizará miles de modelos Hugging Face en plataformas AMD, desde aceleradores AMD Instinct hasta procesadores AMD Ryzen y AMD EPYC, GPUs AMD Radeon y procesadores adaptativos Versal y Alveo.

Una sólida cartera de redes para la nube y la empresa

AMD presentó una robusta cartera de productos de red que incluye la DPU AMD Pensando, las NICs AMD Ultra Low Latency y las NICs AMD Adaptive. Además, las DPUs AMD Pensando combinan una robusta pila de software con «seguridad de confianza cero» y un procesador de paquetes programable de liderazgo para crear la DPU más inteligente y con mayor rendimiento del mundo. La DPU AMD Pensando se despliega a escala a través de socios en la nube como IBM Cloud, Microsoft Azure y Oracle Compute Infrastructure. En la empresa se despliega en el HPE Aruba CX 10000 Smart Switch, y con clientes como la compañía líder de servicios de TI DXC, y como parte de VMware vSphere Distributed Services Engine, acelerando el rendimiento de las aplicaciones para los clientes.

AMD destacó la próxima generación de su hoja de ruta DPU, cuyo nombre en clave es «Giglio», cuyo objetivo es ofrecer a los clientes un mayor rendimiento y eficiencia energética, en comparación con los productos de la generación actual, cuando se espera que esté disponible a finales de 2023.

AMD también ha anunciado el kit de desarrollo de software en silicio AMD Pensando (SSDK), que ofrece a los clientes la posibilidad de desarrollar o migrar rápidamente servicios para desplegarlos en la DPU programable AMD Pensando P4 en coordinación con el rico conjunto de funciones ya implementadas en la plataforma AMD Pensando. El AMD Pensando SSDK permite a los clientes poner la potencia del liderazgo de la DPU AMD Pensando a trabajar y adaptar la virtualización de red y las características de seguridad dentro de su infraestructura, en coordinación con el rico conjunto existente de características ya implementadas en la plataforma Pensando.

Carlos Cantor

Carlos Cantor

GeekAdicto
Ingeniero industrial apasionado por la tecnología. Colombiano amante de la cerveza. Adicto a los E-sports.