Chip AWS Trainium2 - AMAZON BLOG
MADRID, 4 Dic. (Portaltic/EP) -
Amazon Web Services (AWS) ha anunciado el lanzamiento de las instancias de computación de Amazon Elastic Compute Cloud (Amazon EC2) Trn2, equipadas con chips Trainium2 y diseñadas específicamente para aplicaciones de Inteligencia Artificial (IA) generativa.
La compañía presentó Trainium2 en la anterior edición de AWS re:Invent, donde avanzó que seguía trabajando para ofrecer a los clientes más oportunidades para ejecutar cualquier 'app' o carga de trabajo tanto con este chip como con Graviton4.
El director ejecutivo de AWS, Matt Garman, ha anunciado en la conferencia anual de 2024, que arrancó este lunes, la disponibilidad general de las instancias de su servicio web con capacidad de computación escalable bajo demanda Amazon EC2 impulsadas por AWS Trainium2.
En este sentido, ha recordado que las nuevas instancias de Amazon EC2 Trn2 están diseñadas específicamente para el entrenamiento de aprendizaje profundo ('deep learning') de alto rendimiento de modelos de IA, incluidos los modelos de lenguaje grande (LLM) y los modelos de difusión latente.
También ha señalado que Trn2 es la instancia de Amazon EC2 de mayor rendimiento para el aprendizaje profundo y la IA generativa, y que ofrece una relación precio-rendimiento entre un 30 y un 40 por ciento mejor que la actual generación de instancias basadas en unidades de procesamiento gráfico (GPU, por sus siglas en inglés).
Esto, porque una sola instancia de Trn2 combina 16 nuevos chips Trainium2 interconectados con un ancho de banda alto NeuronLink ultrarrápido, así como una interconexión de chip a chip de baja latencia, con 20,8 petaflops de pico de procesamiento.
AWS también ha señalado que para los modelos más grandes que requieran más cómputo, ha trabajado en los Trn2 UltraServers, servidores virutales que permiten a los desarrolladores de 'software' contar con capacidad de procesamiento redimensionable para cualquier carga de trabajo.
Con estos nuevos sistemas, los clientes pueden escalar sus cargas de trabajo para mejorar el rendimiento de inferencia en tiempo real para modelos de miles de millones de parámnetros en producción. En este sentido, la firma ha señalado que está construyendo un UltraCluster EC2 de Trn2 Ultraservers junto a Anthropic.
Este proyecto recibe el nombre de Proyecto Rainier, que ampliará el entrenamiento distribuido de modelos a través de chips Trainium2 interconectados con redes EFA, esto es, interfaces de red para instancias de Amazon EC2 que permiten a los clientes ejecutar aplicaciones que requieren altos niveles de comunciación entre nodos a escala de AWS.
Las instancias de computación Trn2 ya están disponibles en la región de AWS de una parte de Estados Unidos -en concreto, de Ohio- y próximamente se extenderán a otras regiones. Los Trn2 UltraServers, por su parte están en versión preliminar para sus pruebas.
TRAINIUM3
La compañía también ha anunciado en este encuentro Trainium3, su chip de IA de próxima generación, que permitirá a los clientes crear distintos modelos de mayor tamaño y con mator rapidez, así como ofrecer un rendimiento superior en tiempo real en su implementación.
Estos serán los primeros chips de AWS fabricados con un nodo de proceso de 3 nanómetros (3nm), lo que establecerá un nuevo estándar de rendimiento, eficiencia energética y densidad.
Así, se espera que los servidores en la nube empleados para entrenar programas de IA (UltraServers) con tecnología Trainium3 tengan un rendimiento cuatro veces superior al de los UltraServers Trn2. Gracias a esto, los clientes podrán iterar aún más rápido al crear modelos y ofrecer un rendimiento superior en tiempo real en su despliegue.
Amazon Web Services ha adelantado finalmente que se espera que los primeros chips Trainium3 estén disponibles a finales del próximo año.