Llama 4 de Meta : Nouveaux modèles d'IA multimodaux avec restrictions pour les développeurs européens

Édité par : Veronika Nazarova

Meta a lancé sa série Llama 4, qui comprend des modèles d'IA multimodaux avancés capables de comprendre le texte, les images et la vidéo. La série comprend Llama 4 Scout, connu pour la synthèse de documents avec une fenêtre de contexte de 10 millions de jetons, et Llama 4 Maverick, conçu pour les tâches complexes utilisant 400 milliards de paramètres. Les modèles Llama 4 sont conçus avec une multimodalité native, intégrant la fusion précoce pour intégrer de manière transparente les jetons de texte et de vision dans une dorsale de modèle unifiée.

Llama 4 Maverick contient 17 milliards de paramètres actifs, 128 experts et 400 milliards de paramètres au total, offrant une haute qualité à un prix inférieur à celui de Llama 3.3 70B. Llama 4 Maverick est le meilleur modèle multimodal de sa catégorie, surpassant les modèles comparables tels que GPT-4o et Gemini 2.0 en matière de codage, de raisonnement, de multilinguisme, de contexte long et de benchmarks d'images, et il est compétitif avec le DeepSeek v3.1, beaucoup plus grand, en matière de codage et de raisonnement.

Meta intègre Llama 4 dans Meta AI sur WhatsApp, Messenger et Instagram. Cependant, les développeurs et les entreprises basés dans l'Union européenne ne sont pas autorisés à utiliser les modèles multimodaux en raison des incertitudes réglementaires entourant la loi européenne sur l'IA. Cette restriction ne s'applique pas aux utilisateurs finaux. Les entreprises comptant plus de 700 millions d'utilisateurs mensuels ont besoin de l'approbation explicite de Meta pour utiliser Llama 4.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.