Meta wprowadziła na rynek serię Llama 4, obejmującą zaawansowane multimodalne modele AI zdolne do rozumienia tekstu, obrazów i wideo. Seria zawiera Llama 4 Scout, znany z podsumowywania dokumentów z oknem kontekstowym o długości 10 milionów tokenów, oraz Llama 4 Maverick, zaprojektowany do złożonych zadań wykorzystujących 400 miliardów parametrów.
Modele Llama 4 zostały zaprojektowane z natywną multimodalnością, wykorzystując wczesną fuzję do bezproblemowej integracji tokenów tekstowych i wizualnych w ujednoliconym rdzeniu modelu.
Llama 4 Maverick zawiera 17 miliardów aktywnych parametrów, 128 ekspertów i 400 miliardów wszystkich parametrów, oferując wysoką jakość w niższej cenie w porównaniu do Llama 3.3 70B. Llama 4 Maverick to najlepszy w swojej klasie model multimodalny, przewyższający porównywalne modele, takie jak GPT-4o i Gemini 2.0, w testach porównawczych kodowania, rozumowania, wielojęzyczności, długiego kontekstu i obrazów, i jest konkurencyjny z dużo większym DeepSeek v3.1 w kodowaniu i rozumowaniu.
Meta integruje Llama 4 z Meta AI w WhatsApp, Messenger i Instagramie. Jednak deweloperzy i firmy z siedzibą w Unii Europejskiej mają ograniczenia w korzystaniu z modeli multimodalnych ze względu na niepewność regulacyjną związaną z unijną ustawą o AI. Ograniczenie to nie dotyczy użytkowników końcowych. Firmy z ponad 700 milionami użytkowników miesięcznie potrzebują wyraźnej zgody Meta na korzystanie z Llama 4.