Llama 4 de Meta: Nuevos modelos de IA multimodal con restricciones para desarrolladores de la UE

Editado por: Veronika Nazarova

Meta ha lanzado su serie Llama 4, que presenta modelos avanzados de IA multimodal capaces de comprender texto, imágenes y video. La serie incluye Llama 4 Scout, conocido por la summarización de documentos con una ventana de contexto de 10 millones de tokens, y Llama 4 Maverick, diseñado para tareas complejas utilizando 400 mil millones de parámetros. Los modelos Llama 4 están diseñados con multimodalidad nativa, incorporando la fusión temprana para integrar a la perfección tokens de texto y visión en una columna vertebral de modelo unificada.

Llama 4 Maverick contiene 17 mil millones de parámetros activos, 128 expertos y 400 mil millones de parámetros en total, ofreciendo alta calidad a un precio más bajo en comparación con Llama 3.3 70B. Llama 4 Maverick es el mejor modelo multimodal en su clase, superando a modelos comparables como GPT-4o y Gemini 2.0 en codificación, razonamiento, multilingüismo, contexto largo y benchmarks de imágenes, y es competitivo con el DeepSeek v3.1, mucho más grande, en codificación y razonamiento.

Meta está integrando Llama 4 en Meta AI a través de WhatsApp, Messenger e Instagram. Sin embargo, los desarrolladores y las empresas con sede en la Unión Europea tienen restringido el uso de los modelos multimodales debido a las incertidumbres regulatorias que rodean la Ley de IA de la UE. Esta restricción no se aplica a los usuarios finales. Las empresas con más de 700 millones de usuarios mensuales necesitan la aprobación explícita de Meta para usar Llama 4.

¿Encontró un error o inexactitud?

Consideraremos sus comentarios lo antes posible.