Las acciones de Alibaba Group se dispararon tras el lanzamiento de QwQ-32B, un nuevo modelo de razonamiento de IA de código abierto. El modelo rivaliza con DeepSeek-R1 en rendimiento, pero es significativamente más pequeño, con 32.500 millones de parámetros en comparación con los 671.000 millones de R1 (aunque R1 solo activa 37.000 millones a la vez). QwQ-32B, basado en la arquitectura Transformer, incorpora codificación posicional rotatoria para una mejor comprensión del texto. Puede procesar indicaciones con hasta 131.072 tokens y destaca en codificación, matemáticas y tareas de aplicaciones externas. Desarrollado utilizando el aprendizaje por refuerzo, QwQ-32B superó a R1 en los puntos de referencia que miden la interacción del sistema externo, la respuesta a preguntas y la alineación de la salida. Este lanzamiento sigue al compromiso de Alibaba de invertir 53.000 millones de dólares en infraestructura de IA en los próximos tres años. Otros gigantes tecnológicos chinos como Tencent también están priorizando el desarrollo de LLM, lo que destaca la creciente carrera de la IA en China.
Alibaba presenta QwQ-32B, un nuevo modelo de IA de código abierto que rivaliza con DeepSeek-R1
Editado por: Ольга Паничкина
Lea más noticias sobre este tema:
¿Encontró un error o inexactitud?
Consideraremos sus comentarios lo antes posible.