AWS Startet Amazon EC2 Trn2 Instanzen mit Trainium2 Chip für Verbesserte AI Leistung

Hongkong - Am 5. Dezember 2024 kündigte Amazon Web Services (AWS) die Verfügbarkeit von Amazon Elastic Compute Cloud (Amazon EC2) Trn2 Instanzen an, die mit dem neuen Amazon Trainium2 AI Chip ausgestattet sind, während der globalen Konferenz re:Invent 2024. Die Trn2 Instanzen versprechen eine Kosten-Leistungs-Verbesserung von 30-40 % im Vergleich zu bestehenden GPU-basierten EC2 Instanzen und erleichtern das Training und den Einsatz fortschrittlicher AI-Modelle.

David Brown, Vizepräsident für Compute und Networking bei AWS, erklärte, dass der Amazon Trainium2 entwickelt wurde, um große generative AI-Arbeitslasten zu unterstützen, und dass er den Bedarf an effizientem Training und Inferenz deckt, da die Modellparameter die Billionen erreichen. Die neuen EC2 Trn2 UltraServers bieten Hochgeschwindigkeits-Trainings- und Inferenzfähigkeiten, die es Unternehmen ermöglichen, großflächige Modelle schneller und kostengünstiger bereitzustellen.

Die Trn2 Instanzen integrieren 16 Trainium2 Chips und bieten bis zu 20,8 Petaflops an Gleitkomma-Leistung, ideal für das Training von Milliarden-Parameter-Modellen. Die UltraServers ermöglichen es den Kunden, über die Grenzen einzelner Trn2 Instanzen hinaus zu skalieren und die Trainingsgeschwindigkeit sowie die Marktreife zu verbessern.

AWS arbeitet mit Anthropic zusammen, um das Projekt Rainier zu entwickeln, einen verteilten Rechencluster, der die Trn2 UltraServers nutzt und darauf abzielt, AI-Modelle mit beispielloser Rechenleistung zu trainieren. Diese Initiative wird voraussichtlich den größten verfügbaren AI-Rechencluster weltweit hervorbringen.

Darüber hinaus kündigte AWS Pläne für den nächsten Amazon Trainium3 Chip an, der bis Ende 2025 auf den Markt kommen soll und die Leistung und Energieeffizienz für fortschrittliche AI-Arbeitslasten weiter verbessern wird.

Haben Sie einen Fehler oder eine Ungenauigkeit festgestellt?

Wir werden Ihre Kommentare so schnell wie möglich berücksichtigen.