As ações do Alibaba Group dispararam após o lançamento do QwQ-32B, um novo modelo de raciocínio de IA de código aberto. O modelo rivaliza com o DeepSeek-R1 em desempenho, mas é significativamente menor, com 32,5 bilhões de parâmetros em comparação com os 671 bilhões do R1 (embora o R1 ative apenas 37 bilhões por vez). O QwQ-32B, baseado na arquitetura Transformer, incorpora codificação posicional rotativa para melhor compreensão do texto. Ele pode processar prompts com até 131.072 tokens e se destaca em codificação, matemática e tarefas de aplicativos externos. Desenvolvido usando aprendizado por reforço, o QwQ-32B superou o R1 em benchmarks que medem a interação do sistema externo, resposta a perguntas e alinhamento de saída. Este lançamento segue o compromisso do Alibaba de investir US$ 53 bilhões em infraestrutura de IA nos próximos três anos. Outras gigantes da tecnologia chinesa, como a Tencent, também estão priorizando o desenvolvimento de LLM, destacando a crescente corrida de IA na China.
Alibaba revela QwQ-32B, um novo modelo de IA de código aberto que rivaliza com o DeepSeek-R1
Editado por: Ольга Паничкина
Leia mais notícias sobre este tema:
Encontrou um erro ou imprecisão?
Vamos considerar seus comentários assim que possível.