Llama 4 от Meta: Новые мультимодальные модели ИИ с ограничениями для разработчиков из ЕС

Отредактировано: Veronika Nazarova

Meta запустила серию Llama 4, включающую передовые мультимодальные модели ИИ, способные понимать текст, изображения и видео. Серия включает Llama 4 Scout, известную возможностью суммирования документов с контекстным окном в 10 миллионов токенов, и Llama 4 Maverick, разработанную для сложных задач с использованием 400 миллиардов параметров. Модели Llama 4 разработаны с использованием нативной мультимодальности, включающей раннее слияние для бесшовной интеграции текстовых и визуальных токенов в единую основу модели.

Llama 4 Maverick содержит 17 миллиардов активных параметров, 128 экспертов и 400 миллиардов общих параметров, предлагая высокое качество по более низкой цене по сравнению с Llama 3.3 70B. Llama 4 Maverick - лучшая в своем классе мультимодальная модель, превосходящая сопоставимые модели, такие как GPT-4o и Gemini 2.0, в кодировании, рассуждениях, многоязычности, длинном контексте и эталонных тестах изображений, и она конкурентоспособна с гораздо более крупной DeepSeek v3.1 в кодировании и рассуждениях.

Meta интегрирует Llama 4 в Meta AI через WhatsApp, Messenger и Instagram. Однако разработчикам и компаниям, базирующимся в Европейском Союзе, запрещено использовать мультимодальные модели из-за нормативной неопределенности, связанной с Законом ЕС об ИИ. Это ограничение не распространяется на конечных пользователей. Компаниям с более чем 700 миллионами активных пользователей в месяц требуется явное одобрение Meta для использования Llama 4.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.