Llama 4 od Meta: Nowe multimodalne modele AI z ograniczeniami dla deweloperów z UE

Edytowane przez: Veronika Nazarova

Meta wprowadziła na rynek serię Llama 4, obejmującą zaawansowane multimodalne modele AI zdolne do rozumienia tekstu, obrazów i wideo. Seria zawiera Llama 4 Scout, znany z podsumowywania dokumentów z oknem kontekstowym o długości 10 milionów tokenów, oraz Llama 4 Maverick, zaprojektowany do złożonych zadań wykorzystujących 400 miliardów parametrów.



Modele Llama 4 zostały zaprojektowane z natywną multimodalnością, wykorzystując wczesną fuzję do bezproblemowej integracji tokenów tekstowych i wizualnych w ujednoliconym rdzeniu modelu.



Llama 4 Maverick zawiera 17 miliardów aktywnych parametrów, 128 ekspertów i 400 miliardów wszystkich parametrów, oferując wysoką jakość w niższej cenie w porównaniu do Llama 3.3 70B. Llama 4 Maverick to najlepszy w swojej klasie model multimodalny, przewyższający porównywalne modele, takie jak GPT-4o i Gemini 2.0, w testach porównawczych kodowania, rozumowania, wielojęzyczności, długiego kontekstu i obrazów, i jest konkurencyjny z dużo większym DeepSeek v3.1 w kodowaniu i rozumowaniu.



Meta integruje Llama 4 z Meta AI w WhatsApp, Messenger i Instagramie. Jednak deweloperzy i firmy z siedzibą w Unii Europejskiej mają ograniczenia w korzystaniu z modeli multimodalnych ze względu na niepewność regulacyjną związaną z unijną ustawą o AI. Ograniczenie to nie dotyczy użytkowników końcowych. Firmy z ponad 700 milionami użytkowników miesięcznie potrzebują wyraźnej zgody Meta na korzystanie z Llama 4.

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.