Meta ha lanciato la sua serie Llama 4, che presenta modelli avanzati di IA multimodale in grado di comprendere testo, immagini e video. La serie include Llama 4 Scout, noto per la sintesi di documenti con una finestra di contesto di 10 milioni di token, e Llama 4 Maverick, progettato per attività complesse utilizzando 400 miliardi di parametri. I modelli Llama 4 sono progettati con multimodalità nativa, incorporando la fusione precoce per integrare perfettamente token di testo e visione in una dorsale di modello unificata.
Llama 4 Maverick contiene 17 miliardi di parametri attivi, 128 esperti e 400 miliardi di parametri totali, offrendo alta qualità a un prezzo inferiore rispetto a Llama 3.3 70B. Llama 4 Maverick è il miglior modello multimodale della sua categoria, superando modelli comparabili come GPT-4o e Gemini 2.0 su benchmark di codifica, ragionamento, multilinguismo, contesto lungo e immagini, ed è competitivo con il DeepSeek v3.1, molto più grande, su codifica e ragionamento.
Meta sta integrando Llama 4 in Meta AI su WhatsApp, Messenger e Instagram. Tuttavia, gli sviluppatori e le aziende con sede nell'Unione Europea non possono utilizzare i modelli multimodali a causa delle incertezze normative che circondano l'AI Act dell'UE. Questa restrizione non si applica agli utenti finali. Le aziende con oltre 700 milioni di utenti mensili necessitano dell'approvazione esplicita di Meta per utilizzare Llama 4.