Qwen
| Qwen | ||
|---|---|---|
![]() | ||
![]() | ||
| Información general | ||
| Tipo de programa | Bot conversacional, Inteligencia artificial generativa | |
| Desarrollador | Alibaba Cloud | |
| Lanzamiento inicial | 1 de abril de 2023 (2 años, 5 meses y 3 días) | |
| Licencia | Apache-2.0 | |
| Información técnica | ||
| Plataformas admitidas | ||
| Versiones | ||
| Última versión estable | 3 (28 de abril de 2025 (4 meses y 6 días)) | |
| Enlaces | ||
Qwen (también llamado Tongyi Qianwen, en chino: 通义千问) es una familia de grandes modelos de lenguaje desarrollados por Alibaba. En julio de 2024, fue clasificado como el mejor modelo de idioma chino en algunos puntos de referencia y el tercero a nivel mundial detrás de los mejores modelos de Anthropic y OpenAI.[1]
Modelos
Alibaba lanzó por primera vez una versión beta de Qwen en abril de 2023 bajo el nombre de Tongyi Qianwen.[2] Se lanzó públicamente en septiembre de 2023 después de recibir la aprobación del gobierno chino.[3] En diciembre de 2023 lanzó sus modelos 72B y 1.8B como código abierto, mientras que Qwen 7B se lanzó como código abierto en agosto.[4][5]
En junio de 2024, Alibaba lanzó Qwen 2 y en septiembre lanzó algunos de sus modelos como código abierto, manteniendo sus modelos más avanzados como propietarios.[6][7] Qwen 2 emplea una mezcla de expertos.[8]
En noviembre de 2024, se lanzó QwQ-32B-Preview, un modelo centrado en el razonamiento similar al OpenAI o1, bajo la licencia Apache 2.0 , aunque solo se publicaron los pesos, no el conjunto de datos ni el método de entrenamiento.[9][10] QwQ tiene una longitud de contexto de 32 000 tokens y funciona mejor que o1 en algunos puntos de referencia.[11]
La serie Qwen-Vl es una línea de modelos de lenguaje visual que combina un transformador de visión con un LLM.[12][13] Alibaba lanzó Qwen-VL2 con variantes de 2 mil millones y 7 mil millones de parámetros.[14][15] Qwen-vl-max es el modelo de visión insignia de Alibaba a partir de 2024 y lo vende Alibaba Cloud a un coste de 0,00041 dólares por cada mil tokens de entrada.[16]
Alibaba ha lanzado varios otros tipos de modelos, como Qwen-Audio y Qwen2-Math.[17] En total, ha lanzado más de 100 modelos como código abierto, y sus modelos han sido descargados más de 40 millones de veces.[7][18] Se han desarrollado versiones optimizadas de Qwen, como "Liberated Qwen", desarrollado por Abacus AI con sede en San Francisco, que es una versión que responde a cualquier solicitud del usuario sin restricciones de contenido.[19]
En enero de 2025, Alibaba lanzó Qwen 2.5-Max. Según una entrada de blog de Alibaba, Qwen 2.5-Max supera a otros modelos como GPT-4o, DeepSeek-V3 y Llama-3.1-405B en pruebas de evaluación clave.[20] En febrero de 2025, Alibaba anunció en su cuenta oficial de X que el modelo 2.5-Max sería de código abierto.[21]
El 24 de marzo de 2025, Alibaba lanzó Qwen2.5-VL-32B-Instruct como sucesor del modelo Qwen2.5-VL. Se publicó bajo la licencia Apache 2.0.[22][23]
El 26 de marzo de 2025, Qwen2.5-Omni-7B se publicó bajo la licencia Apache 2.0 y se puso a disposición a través de chat.qwen.ai, así como de plataformas como Hugging Face, GitHub y ModelScope.[24] El modelo Qwen2.5-Omni acepta texto, imágenes, vídeos y audio como entrada y puede generar tanto texto como audio como salida, lo que permite utilizarlo para chatear por voz en tiempo real, de forma similar al GPT-4o de OpenAI.[24]
El 28 de abril de 2025, se publicó la familia de modelos Qwen 3,[25][26] con todos los modelos licenciados bajo la licencia Apache 2.0. La familia de modelos Qwen 3 incluye tanto modelos densos (0,6B, 1,7B, 4B, 8B, 14B y 32B, siendo B de miles de millones de parámetros) como modelos dispersos (30B con 3B de parámetros activados, 235B con 22B de parámetros activados). Se entrenaron con 36 billones de tokens en 119 lenguas y dialectos.[27] Todos los modelos, excepto las variantes 0,6B, 1,7B y 4B, tienen una ventana de contexto de 128 mil tokens. Al igual que los modelos o1 y QwQ 32B de OpenAI, los modelos Qwen 3 admiten razonamiento, que puede activarse o desactivarse a través del tokenizador. Los modelos Qwen 3 están disponibles a través de chat.qwen.ai y son de código abierto en Hugging Face y ModelScope.[28]
| Versión | Fecha de lanzamiento | ref |
|---|---|---|
| Tongyi Qianwen | septiembre de 2023 | [3] |
| Qwen-VL | agosto de 2023 | [29] |
| Qwen2 | junio de 2024 | [7] |
| Qwen2-Audio | agosto de 2024 | [30] |
| Qwen2-VL | diciembre de 2024 | [31] |
| Qwen2.5 | septiembre de 2024 | [18] |
| Qwen2.5-Coder | 12 de noviembre de 2024 | [32] |
| QvQ | 26 de diciembre de 2024 | [33] |
| Qwen2.5-VL | 27 de enero de 2025 | [34] |
| QwQ-32B | 5 de marzo de 2025 | [35] |
| Qwen2.5-Omni | 27 de marzo de 2025 | [24] |
| Qwen3 | 28 de abril de 2025 | [26] |
Véase también
Referencias
- ↑ Jiang, Ben (11 de julio de 2024). «Alibaba's open-source AI model tops Chinese rivals, ranks 3rd globally». South China Morning Post (en inglés).
- ↑ Chiang, Sheila (11 de abril de 2023). «Alibaba to roll out its rival to ChatGPT across all its products». CNBC (en inglés).
- ↑ a b Jiang, Ben (13 de septiembre de 2023). «Alibaba opens Tongyi Qianwen model to public as new CEO embraces AI». South China Morning Post (en inglés).
- ↑ Fan, Feifei (1 de diciembre de 2023). «Alibaba unveils new Tongyi Qianwen AI language model». global.chinadaily.com.cn.
- ↑ Ye, Josh (3 de agosto de 2023). «Alibaba rolls out open-sourced AI model to take on Meta's Llama 2». reuters.
- ↑ Jiang, Ben (7 de junio de 2024). «Alibaba says new AI model Qwen2 bests Meta's Llama 3 in tasks like maths and coding». South China Morning Post (en inglés).
- ↑ a b c Kharpal, Arjun (19 de septiembre de 2024). «China's Alibaba launches over 100 new open-source AI models, releases text-to-video generation tool». CNBC (en inglés).
- ↑ Yang, An et ál. (10 Sep 2024). «Qwen2 Technical Report». .
- ↑ Dickson, Ben (29 de noviembre de 2024). «Alibaba releases Qwen with Questions, an open reasoning model that beats o1-preview». VentureBeat.
- ↑ 故渊 (28 de noviembre de 2024). «阿里通义千问 QwQ 登场:开源 AI 推理新王,MATH 测试超 OpenAI o1 模型 - IT之家». www.ithome.com.
- ↑ Wiggers, Kyle (27 de noviembre de 2024). «Alibaba releases an 'open' challenger to OpenAI's o1 reasoning model». TechCrunch.
- ↑ Bai, Jinze et ál. (28 Sep 2023). «Qwen Technical Report». .
- ↑ Browne, Ryan (31 de diciembre de 2024). «Alibaba slashes prices on large language models by up to 85% as China AI rivalry heats up». CNBC (en inglés).
- ↑ 沛霖 (30 de agosto de 2024). «阿里通义千问推出 Qwen2-VL:开源 2B / 7B 参数 AI 大模型,处理任意分辨率图像无需分割成块». ithome.com.
- ↑ Wang, Peng; Bai, Shuai; Tan, Sinan; Wang, Shijie; Fan, Zhihao; Bai, Jinze; Chen, Keqin; Liu, Xuejing; Wang, Jialin; Ge, Wenbin; Fan, Yang; Dang, Kai; Du, Mengfei; Ren, Xuancheng; Men, Rui; Liu, Dayiheng; Zhou, Chang; Zhou, Jingren; Lin, Junyang (18 de septiembre de 2024). «Qwen2-VL: Enhancing Vision-Language Model's Perception of the World at Any Resolution». Cs.CV. arXiv:2409.12191.
- ↑ Jiang, Ben (31 de diciembre de 2024). «Alibaba Cloud cuts AI visual model price by 85% on last day of the year». South China Morning Post (en inglés).
- ↑ Franzen, Carl (8 de agosto de 2024). «Alibaba claims no. 1 spot in AI math models with Qwen2-Math». VentureBeat.
- ↑ a b «Alibaba accelerates AI push by releasing new open-source models, text-to-video». Reuters. 19 de septiembre de 2024.
- ↑ Mims, Christopher (19 de abril de 2024). «Here Come the Anti-Woke AIs». WSJ.
- ↑ Team, Qwen (28 de enero de 2025). «Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model». Qwen (en inglés). Consultado el 30 de abril de 2025.
- ↑ «Qwen (@Alibaba_Qwen) on X». X (formerly Twitter) (en inglés). Consultado el 30 de abril de 2025.
- ↑ Nikhil (25 de marzo de 2025). «Qwen Releases the Qwen2.5-VL-32B-Instruct: A 32B Parameter VLM that Surpasses Qwen2.5-VL-72B and Other Models like GPT-4o Mini». MarkTechPost (en inglés estadounidense). Consultado el 30 de abril de 2025.
- ↑ Team, Qwen (24 de marzo de 2025). «Qwen2.5-VL-32B: Smarter and Lighter». Qwen (en inglés). Consultado el 30 de abril de 2025.
- ↑ a b c «Alibaba releases new open-source AI model to power intelligent voice applications». SiliconANGLE (en inglés estadounidense). 27 de marzo de 2025. Consultado el 30 de abril de 2025.
- ↑ Sotelo, Rafael (30 de abril de 2025). «Alibaba lanza Qwen3 con razonamiento híbrido». M4C NET. Consultado el 30 de abril de 2025.
- ↑ a b «Alibaba unveils advanced Qwen 3 AI as Chinese tech rivalry intensifies». Reuters (en inglés). 29 de abril de 2025. Consultado el 30 de abril de 2025.
- ↑ Wiggers, Kyle (28 de abril de 2025). «Alibaba unveils Qwen3, a family of 'hybrid' AI reasoning models». TechCrunch (en inglés). Consultado el 30 de abril de 2025.
- ↑ Team, Qwen (29 de abril de 2025). «Qwen3: Think Deeper, Act Faster». Qwen (en inglés). Consultado el 30 de abril de 2025.
- ↑ Kharpal, Arjun (25 de agosto de 2023). «Alibaba launches AI model that can understand images and have more complex conversations». CNBC (en inglés). Consultado el 1 de mayo de 2025.
- ↑ «阿里通义千问开源 Qwen2-Audio 7B 语音交互大模型:自由互动,无需输入文本 - IT之家». www.ithome.com (en chino). Consultado el 1 de mayo de 2025.
- ↑ Franzen, Carl (29 de agosto de 2024). «Alibaba releases new AI model Qwen2-VL that can analyze videos more than 20 minutes long». VentureBeat (en inglés estadounidense). Consultado el 1 de mayo de 2025.
- ↑ Nuñez, Michael (12 de noviembre de 2024). «Qwen2.5-Coder just changed the game for AI programming—and it’s free». VentureBeat (en inglés estadounidense). Consultado el 1 de mayo de 2025.
- ↑ «Alibaba announces advanced experimental visual reasoning QVQ-72B AI model». SiliconANGLE (en inglés estadounidense). 26 de diciembre de 2024. Consultado el 1 de mayo de 2025.
- ↑ Wiggers, Kyle (27 de enero de 2025). «Alibaba's Qwen team releases AI models that can control PCs and phones». TechCrunch (en inglés estadounidense). Consultado el 1 de mayo de 2025.
- ↑ Franzen, Carl (5 de marzo de 2025). «Alibaba’s new open source model QwQ-32B matches DeepSeek-R1 with way smaller compute requirements». VentureBeat (en inglés estadounidense). Consultado el 30 de abril de 2025.
Enlaces externos
- Esta obra contiene una traducción derivada de «Qwen» de Wikipedia en inglés, publicada por sus editores bajo la Licencia de documentación libre de GNU y la Licencia Creative Commons Atribución-CompartirIgual 4.0 Internacional.

