2024年,全球开源模型下载量第一名不是Meta的Llama,不是谷歌的Gemma,而是阿里巴巴的Qwen。更魔幻的是,这个团队最初只有12个人。
这个数字来自Hugging Face的年度统计。Qwen系列模型全年下载量突破3亿次,比第二名高出47%。但直到2023年初,外界几乎没几个人听说过这个名字。
故事得从2022年9月说起。达摩院内部启动了一个"通义千问"项目,负责人林俊旸(Junyang Lin)当时带着11个工程师,目标很简单:做一个能用的中文大模型。没人想到两年后,这个小组的产出会被全球开发者疯狂搬运。
小团队怎么跑赢巨头
2023年4月,Qwen-7B开源。同一天,Meta发布了Llama 2。媒体头条全被后者占据,Qwen的GitHub仓库安静得像凌晨三点的小区。
转折点出现在8月。Qwen-14B发布,同时放出了一个关键决策:所有模型都支持32K上下文长度,而当时Llama 2最长只有4K。开发者开始注意到,这个中国团队的模型在长文本任务上异常能打。
林俊旸后来在技术博客里写过一个细节:「我们没算力堆参数,就把精力放在数据质量和训练效率上。」Qwen-72B的训练成本 reportedly 只有同等规模模型的三分之一,靠的是自研的分布式训练框架和激进的数据清洗策略。
更狠的是发布节奏。2023年8月到2024年6月,Qwen家族从7B一路铺到110B,还顺手开源了视觉模型Qwen-VL、音频模型Qwen-Audio、代码模型CodeQwen。平均每月一个新版本,开发者还没消化完上一个,下一个就端上来了。
开源社区的"自来水"效应
2024年初,两件事让Qwen彻底出圈。
一是Mistral AI的联合创始人Arthur Mensch在推特上转发了一条Qwen-72B的评测结果,配文只有一个词:"Impressive"。当时Mistral刚拿了微软投资,是欧洲最炙手可热的AI独角兽。这条推文被转了4000多次。
二是Hugging Face的Open LLM Leaderboard改版。Qwen-72B在多项基准测试里冲进前三,而排在前面的GPT-4和Claude 3 Opus都是闭源API。开源阵营里,只有Meta的Llama 3能跟它掰手腕。
开发者开始用脚投票。一个典型的场景是:某硅谷初创公司的工程师想在自己服务器上跑大模型,Llama 3需要两张A100,Qwen-72B一张就能跑,效果还差不多。GitHub上陆续出现Qwen的微调教程、量化方案、RAG框架适配,语言从英语、中文蔓延到日语、韩语、阿拉伯语。
阿里内部也经历了一次认知翻转。2023年底,达摩院被拆进阿里云智能集团,Qwen团队一度传出"资源收紧"的消息。但2024年的下载数据让高层改了主意——3月,阿里宣布未来三年投入3800亿人民币搞AI基础设施,Qwen被列为"战略级开源项目"。
技术路线的"非主流"选择
Qwen的架构选择里藏着几个反直觉的决策。
比如位置编码。当大家都在追RoPE(旋转位置编码)的时候,Qwen-1代用的是经典的ALiBi,到2代才切回RoPE,但加了一个自创的"NTK-aware"插值方案。这个改动让模型在超长文本上的外推能力直接翻倍,32K上下文就是这么来的。
再比如分词器。Qwen的词表里有15万个token,其中中文占比超过30%,而Llama 2的中文token只有几百个。这意味着同样一段中文,Qwen的序列长度更短,推理速度更快,成本更低。一个国内AI创业公司的CTO跟我算过账:用Qwen处理中文客服对话,单条成本比GPT-3.5 Turbo低60%。
最争议的是许可协议。Qwen-72B最初用的是自定义的"Qwen License",对商用有一定限制。社区反馈激烈,GitHub issue区吵了200多楼。2024年2月,阿里突然宣布全系模型改用Apache 2.0,完全开放商用。同一天,Qwen的GitHub star数涨了3000多。
restructuring之后的变数
2024年6月,阿里集团完成了一次大规模组织架构调整。达摩院原院长张建锋卸任,阿里云智能集团CEO吴泳铭直接接管AI业务。Qwen团队从达摩院并入阿里云,汇报线变了,办公地点也从杭州西溪搬到了云谷园区。
林俊旸在内部全员会上说了一句话:「以前我们是研究院的项目,现在我们是云产品的核心组件。」语气平淡,但懂行的人听得出分量——这意味着Qwen的KPI从"发论文、刷榜单"变成了"带动云资源消耗"。
变化很快体现在产品层面。2024年下半年,Qwen的更新明显放慢,但阿里云上线了"百炼"大模型平台,把Qwen封装成API、微调服务、行业解决方案。开源模型还在更新,只是不再像去年那样月月发新版。
社区里有老用户抱怨"没以前那味了",也有新用户觉得"终于有企业级支持了"。一个Qwen贡献者在Discord频道里吐槽:「以前提PR第二天就合并,现在要走内部评审流程,平均一周。」
但下载数据还在涨。2024年Q4,Qwen系列在Hugging Face的月均下载量突破4000万次,是年初的3倍。阿里云财报里第一次单独披露了"AI相关收入",虽然没给具体数字,但提到"开源模型带来的客户转化"是增长驱动力之一。
2025年1月,Qwen2.5-Max发布,这是系列里第一个明确对标GPT-4o的旗舰模型。发布当天,林俊旸发了一条很短的推特:「72B的蒸馏版在多项测试里超过了原版的性能,这个方向我们还会深挖。」配图是一张训练loss曲线,下降得近乎垂直。
评论区有人问:你们团队现在多少人?他回了一个数字:不到50。相比OpenAI的1700人、Anthropic的800人,这个规模依然小得离谱。但Hugging Face的实时排行榜上,Qwen2.5-Max的评分已经挤进全球前五,前面只有GPT-4o、Claude 3.5 Sonnet和Gemini 1.5 Pro。
下一个问题是:当开源模型的性能逼近闭源旗舰,云厂商的商业模式还能成立吗?阿里押注的答案是"能",但前提是你要先让用户免费跑起来。
热门跟贴