MADRID, 11 Oct. (Portaltic/EP) -
AMD ha anunciado el lanzamiento de las CPU AMD EPYC de 5ª generación, conocidas hasta ahora a nivel interno como Turín, que incorporan arquitectura de núcleo Zen 5, están orientadas a centros de datos y ofrecen una mayor eficiencia energética.
La compañía ha presentado las últimas soluciones de Inteligencia Artificial (IA) y computación de alto rendimiento, entre las que se encuentran las aceleradoras AMD Instinct MI325X, la unidad de procesamiento de datos (DPU) AMD Pensando Salina y la tarjeta de interfaz de red (NIC) Pensando Pollara 400.
En el encuentro, conducido por la presidenta y CEO de la compañía, la doctora Lisa Su, también se ha destacado que "los centros de datos y la IA representan oportunidades de crecimiento importantes" para la marca y que se están apostando por "un fuerte impulso de los procesadores EPYC y AMD Instinct entre un conjunto de clientes cada vez mayor", en palabras de la directiva.
Así, la tecnológica ha anunciado este jueves la disponibilidad de los procesadores AMD EPYC de 5ª generación, anteriormente conocidos bajo el nombre en clave 'Turín', orientados a centros de datos y dirigidos a trabajos de simulación científica (NAMD), tal y como avanzó el pasado junio.
Entonces, apuntó que estos componentes ofrecían un rendimiento de la inferencia de IA cuando ejecutaban LLM más pequeños. Entre ellos, Llama-2 7B, que supera a la competencia en 3,9 veces en resumen de chat 5,4 veces en chatbot y 2,5 veces en traducción.
En este sentido, AMD ha recordado que al utilizar una arquitectura de núcleo Zen 5, compatible con la plataforma SP5 de amplia implantación y ofreciendo una amplia gama de núcleos que van de 8 a 192, estos nuevos procesadores mejoran el rendimiento y la eficiencia energética de las generaciones anteriores.
Todos los modelos de la familia, que ya están disponibles, tienen soporte de Cisco, Dell, Lenovo, Supermicro y Hewlett Packard Enterprise, así como de los principales provedores de servicios en la nube e incluyen 12 canales de memoria DDR5 por CPU, soporte para hasta DDR5-6400 MT/s, frecuencias turbo hasta 5GHz, AVX-512 con el ancho completo de datos de 512b y certificación Trusted I/O.
Entre los distintos modelos disponibles, la compañía ha querido destacar AMD EPYC 9575F, con 64 núcleos y hecha "a medida" para las soluciones de IA basadas en GPU. Estos procesadotes también han aumentado su frecuencia hasta 5 GHz, de manera que proporcionan hasta un 28 por ciento más de velocidad de procesamiento necesaria para mantener las GPU alimentadas con datos para las cargas de trabajo de la IA.
En torno a otros de los procesadores de esta familia, AMD ha explicado que la CPU EPYC 9965 de 192 núcleos tiene hasta 3,7 veces más rendimiento en cargas de trabajo de IA de extremo a extremo, como TPCx-AI, fundamentales para impulsar un enfoque eficiente de la IA generativa.
Asimismo, los modelos GenAI de nivel empresarial de tamaño pequeño y mediano -por ejemplo, Llama 3.1-8B de Meta-, AMD EPYC 9965 proporciona un rendimiento 1,9 veces superior al de la competencia, según ha puntualizado el fabricante.
RYZEN AI PRO 300 SERIES Y ACELERADORAS
AMD también ha anunciado su tercera generación de procesadores comerciales de IA para móviles, Ryzen AI Pro 300 Series, que se han diseñado "específicamente para transformar la productividad empresarial con funciones Copilot+", según una nota de prensa.
Estos chips están fabricados en un proceso de 4 nm, amplían la duración de su batería, triplican su rendimiento en tareas relacionadas con la IA con respecto a la generación anterior, también incorporan Zen 5 y ofrecen una potencia de más de 50 TOPS de NPU.
La familia, compuesta por los modelos AMD Ryzen AI 7 Pro 360, AMD Ryzen AI 9 HX Pro 370 y AMD Ryzen AI 9 HX Pro 375, se han diseñado para asumir las cargas de trabajo más exigentes de las empresas e incorporan arquitectura XDNA 2, que alimenta la NPU integrada.
Otros de los productos presentados en este encuentro han sido las nuevas aceleradoras AMD Instinct MI325X, que "establecen un nuevo estándar en rendimiento para modelos y centros de datos de IA generativa", según ha explicado la marca.
Construidas sobre la arquitectura CDNA 3, se han formulado para ofrecer un rendimiento y eficiencia excepcionales para las tareas que exige esta tecnología, que abarcan el entrenamiento y la inferencia de modelos de base.
Estas aceleradoras ofrecen una capacidad de memoria y un ancho de banda con 256 GB de HBM3E, que admiten 6,0 TB/s y ofrecen 1,8 veces más capacidad y 1,3 veces más ancho de banda que el modelo H200. Asimismo, muestran 1,3 veces más rendimiento teórico máximo en FP16 y FP8.
La compañía ha avanzado que estas aceleradoras estarán disponibles para diferentes proveedores de plataformas, como Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo y Supermicro, entre otros, a partir del primer trimestre de 2025.
Por otra parte, las aceleradoras AMD Instinct MI350 Series están basadas en la arquitectura AMD CDNA 4 y se han creado para ofrecer una mejora de 35 veces en el rendimiento de inferencia en comparación con las aceleraadoras basadas en AMD CDNA 3. Estas, por su parte, estarán disponibles durante la segunda mitad de 2025.
En último lugar, la marca ha dado a conocer la DPU AMD Pensando Salina y la NIC AMD Pensando Pollara 400, centradas en maximizar el rendimiento de la infraestructura de IA, así como para optimizar la comunicación DPU para sistemas escalables basados en esta tecnología.
Por un lado, la DPU AMD Pensando Salina multiplica por dos el rendimiento, el ancho de banda y la escala en comparación con la generación anterior. Asimismo, admite un rendimiento de 400G para tasas de transferencia de datos rápidas.
AMD Pensando Pollara 400, por su parte, se ha preparado para el Ultra Ethernet Consortium (UEC) y está impulsada por el motor AMD P4 Programable. También es compatible con el 'software' RDMA de próxima generación y está respaldada por un ecosistema abierto de redes. Tanto la DPU como la NIC se pondrán a disposición de los clientes en el cuarto trimestre de 2024 y su disponibilidad está prevista para el primer semestre de 2025.
Para cerrar el encuentro, AMD ha indicado que continúa invirtiendo en 'software' y en el ecosistema abierto para ofrecer características y capacidades en AMD ROCm, con ROCm 6.2, que ahora incluye soporte para características críticas de IA como el tipo de datos FP8, Flash Attention 3 y Kernel Fusion.