Llama 4 da Meta: Novos Modelos de IA Multimodal com Restrições para Desenvolvedores da UE

Editado por: Veronika Nazarova

A Meta lançou sua série Llama 4, apresentando modelos avançados de IA multimodal capazes de entender texto, imagens e vídeo. A série inclui o Llama 4 Scout, conhecido pela sumarização de documentos com uma janela de contexto de 10 milhões de tokens, e o Llama 4 Maverick, projetado para tarefas complexas usando 400 bilhões de parâmetros. Os modelos Llama 4 são projetados com multimodalidade nativa, incorporando fusão precoce para integrar perfeitamente tokens de texto e visão em um backbone de modelo unificado.

O Llama 4 Maverick contém 17 bilhões de parâmetros ativos, 128 especialistas e 400 bilhões de parâmetros no total, oferecendo alta qualidade a um preço mais baixo em comparação com o Llama 3.3 70B. O Llama 4 Maverick é o melhor modelo multimodal da categoria, superando modelos comparáveis como GPT-4o e Gemini 2.0 em codificação, raciocínio, multilinguismo, contexto longo e benchmarks de imagem, e é competitivo com o DeepSeek v3.1, muito maior, em codificação e raciocínio.

A Meta está integrando o Llama 4 no Meta AI em WhatsApp, Messenger e Instagram. No entanto, desenvolvedores e empresas sediadas na União Europeia estão restritos de usar os modelos multimodais devido a incertezas regulatórias em torno da Lei de IA da UE. Esta restrição não se aplica aos usuários finais. Empresas com mais de 700 milhões de usuários mensais precisam da aprovação explícita da Meta para usar o Llama 4.

Encontrou um erro ou imprecisão?

Vamos considerar seus comentários assim que possível.