作者 | Yoky
邮箱 | yokyliu@pingwest.com
2026年2月5日,春节前夕,阿里巴巴集团内部完成了一项看似低调却意义深远的调整:将旗下AI的总称和核心品牌统一为“千问”。
直到2月16日的大年三十,阿里发布了最新的开源模型千问3.5。用一款模型整合了原生多模态,在视觉理解、复杂推理、Agent智能体等核心能力维度全面整合到统一的预训练架构中。
Qwen3.5-Plus 总参数 3970 亿,但推理时仅激活 170 亿,以不到 5% 的参数撬动了全部智能。在多项基准测试中性能媲美GPT-5.2、Gemini-3-pro等闭源第一梯队模型,甚至超越了自家上一代万亿参数的Qwen3-Max。用更小的模型,跑出了更强的性能。而成本不升反降,API价格仅为同等性能Gemini 3 Pro的1/18,部署显存占用相比上一代降低60%,推理效率大幅提升,最大推理吞吐量可提升至19倍。
你会发现这不只是一次品牌的统一,更是组织的统一、架构的统一,最终指向AI战略的统一。
当“千问”成为一个贯穿技术、产品与商业的统一符号,当Qwen3.5用“一款模型打天下”的策略在春节档炸场,它不再只是又一次榜单刷新,而是阿里AI战略从分散走向协同、从单点突破走向系统作战的集中呈现。
1
Qwen3.5凭什么再掀巨浪?
Qwen3.5的出现意味着,企业可以用过去几分之一的成本,部署性能顶级的AI系统,参考R1曾经干的事,用更小的参数规模、更低的部署成本获得更强的智能表现。
但这并非一夜之间的灵光乍现,而是Qwen系列一以贯之的战略延续:从Qwen1.5到Qwen2.5,再到今天的Qwen3.5,阿里巴巴的优化方向从来不是“如何把模型做得更大”,而是“如何用更小的模型,做出顶尖的性能”。
早在Qwen1.5时代,阿里就推出了从0.5B到110B的完整参数谱系,在千亿级模型上验证了规模与效率的平衡之道。Qwen2.5延续这一思路,72B模型以不到Llama3 405B五分之一的参数规模实现性能超越,而1.5B量级的小模型在数学推理和编程等领域同样展现出惊人的能力密度。这种“以小胜大”的能力,不是偶然的某一次爆发,而是贯穿每一代产品的稳定输出。
正是这种贯穿每一代的战略定力,让Qwen3.5的突破有了更深层的意义:它不只是又一次刷新榜单,而是将“以小胜大”的能力从单一的语言智能,拓展到了更广阔的多模态世界。
当前行业多模态模型多走“拼装”路线,语言模型外挂视觉模块,常导致视觉增强而语言“降智”。而Qwen3.5选择了一条更深入,也更复杂的道路,从预训练第一天起就在海量的文本与视觉混合数据上联合学习,让视觉与语言在统一参数空间深度融合,从而让模型真正具备跨模态直觉理解力,能像素级定位图像、理解2小时视频时序、将手绘草图转前端代码,甚至作为视觉智能体操控手机电脑。
在复杂推理与Agent能力上,Qwen3.5通过混合注意力机制、极致稀疏MoE架构、原生多Token预测及注意力门控机制等核心技术协同作用,实现动态分配计算资源、以不到5%激活参数调动397B总参数知识储备,推理速度翻倍的同时确保训练稳定可靠。
下面这个案例,是简单几步在OpenClaw里配置了Qwen3.5,让它进行搜索过去一个月内发布的新 AI 模型,将信息汇总成一份报告,并最终自动将生成 PDF 文件直接在聊天窗口中发送回给我。
从搜索、整合信息到排版生成文件,再到跨平台发送,最终输出的报告不仅列出了模型,还包含了 “SWE-Bench” 基准测试对比表,显示了各模型在解决软件工程问题上的表现。
4000 亿参数超越万亿参数,API 价格仅为同等性能 Gemini 3 Pro 的 1/18……这些数字单独看是产品迭代,放在一起看,则意味着一个拐点的到来:顶级AI能力不再是高算力、高成本的闭环游戏,而是变成个人开发者、创业团队、中小企业也能触碰的基础能力。
1
一个统一的阿里
在全球所有模型厂商里,阿里都是一个特殊的存在。大多数AI公司要么专注模型研发,要么深耕芯片设计,要么依托云基础设施,但极少有厂商能将这三者同时握在手中,并让它们在一个统一的战略目标下协同运转。
但阿里做到了。
Qwen3.5的背后,站着整个阿里云的技术体系。Qwen3.5的“极致性价比”并非孤立的技术成果,而是模型、芯片与云协同创新的产物。
在模型层面,千问大模型团队持续迭代,从Qwen2.5到Qwen3再到Qwen3.5,每一代都在关键能力维度上突破开源模型的天花板,稳定输出天花板级产品。在芯片层面,平头哥自研的“真武”芯片针对MoE架构模型做了大量优化,可满足千问大模型对大规模计算的需求,让芯片与模型联合设计,发挥极致算力潜力。
更重要的是,阿里云提供从训练到推理的全链路优化,比如通过设计精巧的FP8/FP32精度应用策略,激活内存减少约50%,训练提速10%,且这套方案被统一部署到强化学习训练和推理的全流程中,全面降低了多模态模型扩展的成本和复杂度。在智能体训练上,团队还专门搭建了一套大规模强化学习框架,覆盖纯文本、多模态和多轮对话等各种场景,整体效率提升3到5倍,让模型能在海量真实场景中反复实战、持续进化。
这种模型、芯片和云的软硬件紧密耦合,最终实现了“1+1+1>3”的效果,不仅能更好发挥芯片的算力潜力,提升集群的算力效率,还能有效提升模型训练与推理的效率。得益于此,Qwen3.5的API价格进一步探底,而开源协议Apache 2.0的完全开放,让全球开发者得以零门槛使用、研究甚至二次开发世界顶级的多模态AI能力。
放眼全球,有能力将这三者深度耦合的科技公司屈指可数,而阿里是其中之一,也是唯一走通开源路线的那个。
这种协同创新的成果,正在以惊人的速度转化为生态效应。截至目前,千问模型的开源数量已超400个,衍生模型突破20万个,下载量超10亿次。
在中国企业级大模型调用市场中,千问位居第一,并成为阿里云新增需求的主要驱动力,带动计算、存储及数据库等基础资源消耗的增长。根据Omdia数据,2025年上半年,中国AI云整体市场规模达223亿元,阿里云占比35.8%,超过第二到第四名总和;阿里云在中国云市场的整体份额也从33%提升至36%,领先优势持续扩大。
这些数字背后是一个正在加速成型的正循环:开源吸引开发者,开发者催生应用,应用反哺云和芯片业务,业务收益再投入下一代模型研发。而当技术本身足够高效,成本就不再是需要刻意压缩的东西,它自然就低了。Qwen3.5让“最强”和“最便宜”,同时出现在了一个模型上。
回看过去几十年的科技产业史,Linux定义了服务器时代,Android定义了移动时代,它们的共同点是开源、免费、无处不在,最终成为整个产业默认的底层。
而它们的背后,都站着一个能够调动全栈资源、保持战略定力的推动者。今天的阿里,正在扮演这个角色。
当组织统一、战略统一、技术协同成为常态,“千问”就不再只是一个模型系列的名称,而是AI时代基础设施的代名词。
点个“爱心”,再走 吧
热门跟贴