Alibaba prezentuje QwQ-32B, nowy model AI o otwartym kodzie źródłowym konkurujący z DeepSeek-R1

Edytowane przez: Ольга Паничкина

Akcje Alibaba Group poszybowały w górę po wydaniu QwQ-32B, nowego modelu AI o otwartym kodzie źródłowym. Model ten konkuruje z DeepSeek-R1 pod względem wydajności, ale jest znacznie mniejszy, z 32,5 miliardami parametrów w porównaniu do 671 miliardów R1 (chociaż R1 aktywuje tylko 37 miliardów naraz). QwQ-32B, oparty na architekturze Transformer, zawiera obrotowe kodowanie pozycyjne dla lepszego zrozumienia tekstu. Może przetwarzać podpowiedzi z maksymalnie 131 072 tokenami i wyróżnia się w kodowaniu, matematyce i zadaniach aplikacji zewnętrznych. Opracowany przy użyciu uczenia się ze wzmocnieniem, QwQ-32B przewyższył R1 w testach porównawczych mierzących interakcję z systemem zewnętrznym, odpowiadanie na pytania i dopasowywanie danych wyjściowych. Ta premiera jest następstwem zobowiązania Alibaba do zainwestowania 53 miliardów dolarów w infrastrukturę AI w ciągu najbliższych trzech lat. Inni chińscy giganci technologiczni, tacy jak Tencent, również priorytetowo traktują rozwój LLM, co podkreśla rosnący wyścig AI w Chinach.

Czy znalazłeś błąd lub niedokładność?

Rozważymy Twoje uwagi tak szybko, jak to możliwe.