Deepseek VL-2 : Un nouveau modèle d'IA équilibre puissance et efficacité

Édité par : Veronika Nazarova

Deepseek, en Chine, a lancé VL-2, un modèle d'IA vision-langage qui équilibre puissance et efficacité. Basé sur une architecture de mélange d'experts (MoE), VL-2 n'active que les sous-réseaux nécessaires pour des tâches spécifiques, optimisant ainsi l'utilisation des ressources. Le modèle VL-2 Small est disponible sur Hugging Face pour les tests. Ce modèle excelle dans des tâches telles que la conversion de diagrammes en code, l'analyse d'images alimentaires et la compréhension de l'humour visuel. Sa conception MoE divise le modèle en sous-réseaux spécialisés, réduisant la surcharge de calcul tout en maintenant la précision. La variante VL-2 Tiny utilise 1 milliard de paramètres pendant l'inférence, tandis que les variantes Small et Large utilisent respectivement 2,8 milliards et 4,5 milliards. Deepseek VL-2 est utile dans les domaines de la santé, de l'éducation et de l'analyse de données, offrant des solutions pour des défis du monde réel tels que l'automatisation des flux de travail et l'amélioration des expériences utilisateur.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.