Meta heeft zijn Llama 4-serie gelanceerd, met geavanceerde multimodale AI-modellen die tekst, afbeeldingen en video kunnen begrijpen. De serie omvat Llama 4 Scout, bekend om document samenvatting met een contextvenster van 10 miljoen tokens, en Llama 4 Maverick, ontworpen voor complexe taken met behulp van 400 miljard parameters.
Llama 4-modellen zijn ontworpen met native multimodaliteit, waarbij vroege fusie wordt gebruikt om tekst- en visietokens naadloos te integreren in een uniforme model backbone.
Llama 4 Maverick bevat 17 miljard actieve parameters, 128 experts en 400 miljard totale parameters, en biedt een hoge kwaliteit tegen een lagere prijs in vergelijking met Llama 3.3 70B. Llama 4 Maverick is het beste multimodale model in zijn klasse en overtreft vergelijkbare modellen zoals GPT-4o en Gemini 2.0 op het gebied van codering, redeneren, meertaligheid, lange context en beeld benchmarks, en is concurrerend met de veel grotere DeepSeek v3.1 op het gebied van codering en redeneren.
Meta integreert Llama 4 in Meta AI via WhatsApp, Messenger en Instagram. Ontwikkelaars en bedrijven gevestigd in de Europese Unie mogen de multimodale modellen echter niet gebruiken vanwege de onzekerheid over de regelgeving rond de EU AI Act. Deze beperking geldt niet voor eindgebruikers. Bedrijven met meer dan 700 miljoen maandelijkse gebruikers hebben de uitdrukkelijke goedkeuring van Meta nodig om Llama 4 te gebruiken.