MADRID, 29 Nov. (Portaltic/EP) -
Amazon ha presentado su nueva generación de chips Graviton4 y Trainium2, desarrollados por Amazon Web Services (AWS), que ofrecen avances en rendimiento y eficiencia energética para cargas de trabajo de modelos de aprendizaje automático (ML) y aplicaciones de Inteligencia Artificial (IA) generativa.
En el marco de la conferencia AWS re:Invent, que ha tenido lugar en Las Vegas (Estados Unidos), la compañía tecnológica ha compartido su intención de continuar trabajando para brindar a los clientes más oportunidades para ejecutar "cualquier aplicación o carga de trabajo" en Amazon Elastic Compute Cloud (Amazon EC2).
En este sentido, AWS ha dado a conocer su última generación de chips de IA, Graviton4 y Trainium2, diseñados para mejorar el rendimiento y la eficiencia en las cargas de trabajo para los clientes, de cara a ofrecer "la infraestructura de nube más avanzada".
La tecnológica ha subrayado que el procesador Graviton4 es capaz de proporcionar hasta un 30 por ciento más de rendimiento informático, un 50 por ciento más de núcleos y un 75 por ciento más de ancho de banda de memoria que los procesadores Graviton3 de la generación anterior.
En concreto, tal y como ha explicado la compañía en un comunicado, este procesador está enfocado a soportar una amplia gama de cargas de trabajo y, según ha manifestado el vicepresidente de Computación y Redes de AWS, David Brown, es el chip "más potente y enérgicamente eficiente" que ha desarrollado Amazon para dichas cargas de trabajo.
Actualmente, Amazon ofrece más de 150 tipos distintos de instancias en la nube EC2 impulsadas por Graviton a nivel mundial. Estas instancias son utilizadas por más de 50.000 clientes, entre ellos DirecTV, Formula 1 (F1) y Pinterest, para mejorar llevar a cabo cargas de trabajo como bases de datos, análisis, procesamiento por lotes o publicación de anuncios.
Así, según ha explicado, a medida que los clientes aumentan sus cargas de trabajo, necesitan mejoras de computación, memoria o almacenamiento. Por tanto, requieren más rendimiento, más eficiencia energética y tamaños de instancias más grandes, algo que Amazon asegura con Graviton4.
Asimismo, la compañía ha puesto en valor la capacidad de procesador para ofrecer un alto nivel de seguridad, ya que es capaz de cifrar todas las interfaces físicas de 'hardware' de alta velocidad.
En concreto, Amazon ha especificado que el procesador Graviton4 estará disponible en las instancias R8g de Amazon EC2 con memoria optimizada. Con ello, mejorará la ejecución de las bases de datos de alto rendimiento de los usuarios, así como sus cachés en memoria y el análisis de 'big data'.
Las instancias R8g son más grandes, disponen de hasta 3 veces más vCPU y 3 veces más memoria que las instancias R7g de la generación actual. Igualmente, ya están disponibles en versión preliminar.
EL CHIP PARA ENTRENAR IA TRAINIUM2
Por su parte, el chip Trainium2 ha sido diseñado para ofrecer un entrenamiento "hasta cuatro veces más rápido" que los chips Trainium de primera generación a la hora de entrenar modelos de lenguaje y ofrece una eficiencia energética dos veces mayor en comparación con su antecesor.
Este nuevo modelo está preparado para que los usuarios puedan implementarlo en Amazon EC2 a través de UltraClusters de hasta 100.000 chips. De esta forma, permitirá entrenar modelos básicos (FM) y modelos de lenguaje grande (LLM) "en un fracción del tiempo", con billones de parámetros. Igualmente, también cuenta con tres veces más capacidad de memoria en comparación a los Trainium de primera generación.
Por todo ello, tal y como ha detallado Brown, Tranium2 "ayudará a los clientes a entrenar sus modelos de ML más rápido, a menor costo y con mejor eficiencia energética".
En concreto, este procesador se utilizará en las instancias de Amazon EC2 Trn2 y, tal y como ha explicado Amazon, cada instancia contará con dieciséis chips Trainium. Gracias a ello, los clientes podrán entrenar un LLM de 300 mil millones de parámetros "en semanas en lugar de meses". "Las instancias Trn2 pueden ayudar a los clientes a desbloquear y acelerar la próxima ola de avances en IA generativa", ha sentenciado la tecnológica.
Con todo ello, Amazon ha anunciado que trabajará con la compañía de IA generativa Anthropic, que lanzó recientemente el 'chatbot' Claude, para desarrollar sus futuros modelos básicos utilizando chips Trainium.
"Trainium2 nos ayudará a construir y entrenar modelos a muy gran escala y esperamos que sea al menos 4 veces más rápido que los chips Trainium de primera generación para algunas de nuestras cargas de trabajo clave", ha detallado el cofundador de Anthropic, Tom Brown.