IT之家 2 月 17 日消息,昨天下午,阿里在 chat.qwen.ai 页面低调上线了 Qwen3.5-Plus 和 Qwen3.5-397B-A17B 两款新模型(均支持文本和多模态任务)。
- Qwen3.5 Plus 定位为 Qwen 3.5 系列最新大语言模型;
- Qwen3.5-397B-A17B 定位则是 Qwen3.5 开源系列旗舰大语言模型。
打开网易新闻 查看精彩图片
IT之家注意到,华为计算官方昨晚宣布,Qwen3.5 模型一经开源发布,昇腾 0 day 实现基于 MindSpeed MM 在 Atlas 800 A3、Atlas 900 A3SuperPoD 上的训练复现,同时也支持基于 vLLM-Ascend 和 SGLang 在 Atlas 800 A2、Atlas 800 A3 上的高效推理部署。
据介绍,基于 FSDP 训练后端的设计,MindSpeed MM 框架大幅缩短了新模型的适配周期,实现了 " 开箱即用、快速迭代 " 的开发体验,为多模态大模型的研究与应用提供了技术支撑。
打开网易新闻 查看精彩图片
另据阿里云介绍,Qwen3.5 实现了底层模型架构的全面革新,其中,Qwen3.5-Plus 版本总参数为 3970 亿,激活仅 170 亿,性能超过万亿参数的 Qwen3-Max 模型,部署显存占用降低 60%,推理效率大幅提升,最大推理吞吐量可提升至 19 倍。Qwen3.5 在能力、效率与通用性三个维度上推进预训练:
- 能力(Power):在更大规模的视觉-文本语料上训练,并加强中英文、多语言、STEM 与推理数据,采用更严格的过滤,实现跨代持平:Qwen3.5-397B-A17B 与参数量超过 1T 的 Qwen3-Max-Base 表现相当。
- 效率(Efficiency):基于 Qwen3-Next 架构 —— 更高稀疏度的 MoE、Gated DeltaNet + Gated Attention 混合注意力、稳定性优化与多 token 预测。在 32k/256k 上下文长度下,Qwen3.5-397B-A17B 的解码吞吐量分别是 Qwen3-Max 的 8.6 倍 / 19.0 倍,且性能相当。Qwen3.5-397B-A17B 的解码吞吐量分别是 Qwen3-235B-A22B 的 3.5 倍 / 7.2 倍。
- 通用性(Versatility):通过早期文本-视觉融合与扩展的视觉 / STEM / 视频数据实现原生多模态,在相近规模下优于 Qwen3-VL。多语言覆盖从 119 增至 201 种语言 / 方言;25 万词表(vs. 15 万)在多数语言上带来约 10–60% 的编码 / 解码效率提升。
打开网易新闻 查看精彩图片
vllm 部署指导可参见魔乐社区和 gitcode 社区链接:
SGLang 部署指导可参见 SGLang 社区链接:
打开网易新闻 查看精彩图片
热门跟贴