Deepseek, en China, ha lanzado VL-2, un modelo de IA de visión-lenguaje que equilibra potencia y eficiencia. Construido sobre una arquitectura de mezcla de expertos (MoE), VL-2 activa solo las subredes necesarias para tareas específicas, optimizando el uso de recursos. El modelo VL-2 Small está disponible en Hugging Face para pruebas. Este modelo destaca en tareas como la conversión de diagramas de flujo a código, el análisis de imágenes de alimentos y la comprensión del humor visual. Su diseño MoE divide el modelo en subredes especializadas, reduciendo la sobrecarga computacional mientras mantiene la precisión. La variante VL-2 Tiny utiliza 1 mil millones de parámetros durante la inferencia, mientras que las variantes Small y Large utilizan 2.8 mil millones y 4.5 mil millones, respectivamente. Deepseek VL-2 es útil en los sectores de la salud, la educación y el análisis de datos, ofreciendo soluciones para desafíos del mundo real como la automatización de flujos de trabajo y la mejora de las experiencias de usuario.
Deepseek VL-2: Nuevo modelo de IA equilibra potencia y eficiencia
Editado por: Veronika Nazarova
Lea más noticias sobre este tema:
¿Encontró un error o inexactitud?
Consideraremos sus comentarios lo antes posible.