Alibaba dévoile QwQ-32B, un nouveau modèle d'IA open source rivalisant avec DeepSeek-R1

Édité par : Ольга Паничкина

Les actions du groupe Alibaba ont grimpé en flèche après la publication de QwQ-32B, un nouveau modèle de raisonnement d'IA open source. Le modèle rivalise avec DeepSeek-R1 en termes de performances, mais il est considérablement plus petit, avec 32,5 milliards de paramètres contre 671 milliards pour R1 (bien que R1 n'active que 37 milliards à la fois). QwQ-32B, basé sur l'architecture Transformer, intègre un encodage positionnel rotatif pour une meilleure compréhension du texte. Il peut traiter des invites avec jusqu'à 131 072 jetons et excelle dans le codage, les mathématiques et les tâches d'application externe. Développé à l'aide de l'apprentissage par renforcement, QwQ-32B a surpassé R1 dans les benchmarks mesurant l'interaction avec les systèmes externes, la réponse aux questions et l'alignement de la sortie. Cette publication fait suite à l'engagement d'Alibaba d'investir 53 milliards de dollars dans l'infrastructure d'IA au cours des trois prochaines années. D'autres géants technologiques chinois comme Tencent accordent également la priorité au développement de LLM, ce qui souligne la course croissante à l'IA en Chine.

Avez-vous trouvé une erreur ou une inexactitude ?

Nous étudierons vos commentaires dans les plus brefs délais.