De aandelen van Alibaba Group zijn gestegen na de release van QwQ-32B, een nieuw open-source AI-redeneermodel. Het model concurreert qua prestaties met DeepSeek-R1, maar is aanzienlijk kleiner, met 32,5 miljard parameters vergeleken met de 671 miljard van R1 (hoewel R1 slechts 37 miljard tegelijk activeert). QwQ-32B, gebaseerd op de Transformer-architectuur, bevat roterende positionele codering voor een beter tekstbegrip. Het kan prompts met maximaal 131.072 tokens verwerken en blinkt uit in codering, wiskunde en externe applicatietaken. QwQ-32B is ontwikkeld met behulp van reinforcement learning en presteerde beter dan R1 in benchmarks die de interactie met externe systemen, het beantwoorden van vragen en de afstemming van de output meten. Deze release volgt op Alibaba's toezegging om de komende drie jaar $53 miljard te investeren in AI-infrastructuur. Andere Chinese techgiganten zoals Tencent geven ook prioriteit aan LLM-ontwikkeling, wat de groeiende AI-race in China onderstreept.
Alibaba onthult QwQ-32B, een nieuw open-source AI-model dat concurreert met DeepSeek-R1
Bewerkt door: Ольга Паничкина
Lees meer nieuws over dit onderwerp:
Heb je een fout of onnauwkeurigheid gevonden?
We zullen je opmerkingen zo snel mogelijk in overweging nemen.