Гонконг - 5 декабря 2024 года Amazon Web Services (AWS) объявила о доступности инстансов Amazon Elastic Compute Cloud (Amazon EC2) Trn2, работающих на новом AI-чипе Amazon Trainium2, на глобальной конференции re:Invent 2024. Инстансы Trn2 обещают улучшение соотношения цена-производительность на 30-40% по сравнению с существующими инстансами EC2 на базе GPU, облегчая обучение и развертывание продвинутых AI-моделей.
Дэвид Браун, вице-президент AWS по вычислениям и сетям, заявил, что Amazon Trainium2 разработан для поддержки крупных генеративных AI-нагрузок, отвечая на необходимость эффективного обучения и вывода по мере приближения параметров модели к триллионам. Новые UltraServers EC2 Trn2 предлагают высокоскоростные возможности обучения и вывода, позволяя компаниям быстрее и экономичнее развертывать крупномасштабные модели.
Инстансы Trn2 интегрируют 16 чипов Trainium2, обеспечивая до 20,8 Петафлопс производительности с плавающей запятой, что идеально подходит для обучения моделей с миллиардами параметров. UltraServers позволяют клиентам масштабироваться за пределы ограничений индивидуальных инстансов Trn2, улучшая скорость обучения и готовность к рынку.
AWS сотрудничает с Anthropic для разработки проекта Rainier, распределенного вычислительного кластера, использующего UltraServers Trn2, с целью обучения AI-моделей с беспрецедентной вычислительной мощностью. Ожидается, что эта инициатива станет крупнейшим доступным AI-вычислительным кластером в мире.
Кроме того, AWS объявила о планах по запуску нового поколения чипа Amazon Trainium3, который должен появиться на рынке в конце 2025 года и дополнительно повысить производительность и энергоэффективность для продвинутых AI-нагрузок.