Hong Kong - Le 5 décembre 2024, Amazon Web Services (AWS) a annoncé la disponibilité des instances Amazon Elastic Compute Cloud (Amazon EC2) Trn2, alimentées par la nouvelle puce AI Amazon Trainium2, lors de la conférence mondiale re:Invent 2024. Les instances Trn2 promettent une amélioration de 30 à 40 % du rapport coût-performance par rapport aux instances EC2 basées sur GPU existantes, facilitant l'entraînement et le déploiement de modèles AI avancés.
David Brown, vice-président d'AWS pour l'informatique et les réseaux, a déclaré que l'Amazon Trainium2 est conçu pour soutenir des charges de travail AI génératives à grande échelle, répondant au besoin d'une formation et d'une inférence efficaces à mesure que les paramètres des modèles approchent des trillions. Les nouveaux UltraServers EC2 Trn2 offrent des capacités d'entraînement et d'inférence à grande vitesse, permettant aux entreprises de déployer des modèles à grande échelle plus rapidement et à moindre coût.
Les instances Trn2 intègrent 16 puces Trainium2, offrant jusqu'à 20,8 Petaflops de performance flottante, idéales pour entraîner des modèles de milliards de paramètres. Les UltraServers permettent aux clients de dépasser les limites des instances Trn2 individuelles, améliorant la vitesse d'entraînement et la préparation au marché.
AWS collabore avec Anthropic pour développer le projet Rainier, un cluster de calcul distribué utilisant les UltraServers Trn2, visant à entraîner des modèles AI avec une puissance de calcul sans précédent. Cette initiative devrait donner lieu au plus grand cluster de calcul AI disponible au monde.
De plus, AWS a annoncé des plans pour la puce Amazon Trainium3 de nouvelle génération, qui devrait être lancée d'ici la fin de 2025, et qui améliorera encore la performance et l'efficacité énergétique pour les charges de travail AI avancées.