Llama 4 від Meta: Нові мультимодальні моделі ШІ з обмеженнями для розробників з ЄС

Відредаговано: Veronika Nazarova

Meta запустила свою серію Llama 4, що включає передові мультимодальні моделі ШІ, здатні розуміти текст, зображення та відео. Серія містить Llama 4 Scout, відому своїм підсумовуванням документів з контекстним вікном у 10 мільйонів токенів, і Llama 4 Maverick, розроблену для складних завдань з використанням 400 мільярдів параметрів.



Моделі Llama 4 розроблені з нативною мультимодальністю, що включає раннє злиття для безшовної інтеграції текстових і візуальних токенів в уніфікований хребет моделі.



Llama 4 Maverick містить 17 мільярдів активних параметрів, 128 експертів і 400 мільярдів загальних параметрів, пропонуючи високу якість за нижчою ціною порівняно з Llama 3.3 70B. Llama 4 Maverick є найкращою у своєму класі мультимодальною моделлю, що перевершує порівнянні моделі, такі як GPT-4o та Gemini 2.0, у тестах кодування, міркування, багатомовності, довгого контексту та зображень, і є конкурентоспроможною з набагато більшою DeepSeek v3.1 у кодуванні та міркуванні.



Meta інтегрує Llama 4 у Meta AI через WhatsApp, Messenger та Instagram. Однак розробникам і компаніям, що базуються в Європейському Союзі, заборонено використовувати мультимодальні моделі через регуляторну невизначеність навколо Закону ЄС про ШІ. Це обмеження не поширюється на кінцевих користувачів. Компаніям із понад 700 мільйонами щомісячних користувачів потрібне чітке схвалення Meta для використання Llama 4.

Знайшли помилку чи неточність?

Ми розглянемо ваші коментарі якомога швидше.