开源模型再次迎来一位重磅选手,就在刚刚,小米正式发布并开源新模型 MiMo-V2-Flash。

MiMo-V2-Flash 总参数3090亿,活跃参数150亿,采用专家混合架构 (MoE),性能还能和 DeepSeek-V3.2、Kimi-K2这些头部开源模型掰 掰 手腕。

打开网易新闻 查看精彩图片

此外,MiMo-V2-Flash 采用 MIT 开源协议,基础版权重也已经在 Hugging Face 上发布。

打开网易新闻 查看精彩图片

当然,除去「开源」这一标签,新模型真正的杀手锏在于架构设计上的激进创新,把推理速度拉到了150 tokens/秒,成本压到了每百万 token 输入0.1美元、输出0.3美元,主打一个超绝性价比

打开网易新闻 查看精彩图片

此外 ,根据官方体验页面信息,MiMo-V2-Flash 还支持深度思考和联网搜索功能, 既能对话聊天,也能在需要实时数据、最新动态或资料核对的场景里派上用场。

打开网易新闻 查看精彩图片

附上 AI Studio 体验地址:

http://aistudio.xiaomimimo.com

开源模型新标杆, MiMo-V2-Flash 跑分全线开花

先来看看 MiMo-V2-Flash 的跑分。

基准测试成绩显示,AIME 2025数学竞赛和 GPQA-Diamond 科学知识测试中,MiMo-V2-Flash 都排在开源模型前两名。

编程能力更是亮眼,SWE-bench Verified 得分73.4%,超越所有开源模型,直逼 GPT-5-High。而这个测试是让 AI 去修真实世界的软件 bug,73.4% 的成功率也意味着它能搞定大部分实际编程问题。

打开网易新闻 查看精彩图片

在多语言编程基准测试 SWE-Bench Multilingual 里,MiMo-V2-Flash 的解决率为71.7%。

转看智能体任务,MiMo-V2-Flash 在τ²-Bench 分类得分中,通信类95.3分,零售类79.5分,航空类66.0分,BrowseComp 搜索代理得分45.4,启用上下文管理后直接飙到58.3。

打开网易新闻 查看精彩图片

这些数据说明,MiMo-V2-Flash 不仅会写代码,还能真正理解复杂任务逻辑,执行多轮智能体交互。

更重要的是,写作质量也接近顶级闭源模型,这意味着 MiMo-V2-Flash 不只是个工具,还能当个靠谱的日常助手。

MiMo-V2-Flash 在保持长文本性能的同时,还降低了成本,究其原因,离不开两项核心技术创新。

混合滑动窗口注意力机制:传统大模型处理长文本时,全局注意力机制会导致计算量二次爆炸,存储中间结果的 KV 缓存也跟着飙升。

小米这次采用了5比1的激进比例,5层滑动窗口注意力搭配1层全局注意力交替使用,滑动窗口只看128个 token。

这种设计让 KV 缓存存储量直接减少了近6倍,但长文本能力却没打折扣,最长支持256k 上下文窗口。

打开网易新闻 查看精彩图片

且模型即使在这么激进的窗口设置下,照样能稳住长文本性能。

对此, 罗福莉在社交平台上特别指出一个反直觉的发现:窗口大小128是「最佳甜点值」。实验证明,盲目扩大窗口(如增至512)反而会导致性能下降。同时她强调,在实施该机制时,sink values 是维持性能的关键,绝不可省略。

打开网易新闻 查看精彩图片

另一个黑科技是轻量级多 Token 预测 (MTP)。

传统模型生成文本时一次只能吐一个 token,就像打字员一个字一个字敲。MiMo-V2-Flash 通过原生集成的 MTP 模块,能并行预测多个 token,一次性猜出接下来好几个 token。

实测平均能接受2.8到3.6个 token,推理速度直接提升2到2.6倍,不仅在推理时管用,训练阶段也能加速采样,减少 GPU 空转,属于一箭双雕。

打开网易新闻 查看精彩图片

罗福莉提到,在三层 MTP 设置下,他们观察到平均接受长度超过3,编码任务速度提升约2.5倍。它有效解决了小批量 On-Policy 强化学习中「长尾样本」带来的 GPU 空闲时间浪费问题。

啥叫长尾样本?就是那些特别难、特别慢的任务,拖着其他任务一起等,GPU 就在那干瞪眼。MTP 把这个问题给解了,极大提高了效率。

不过罗福莉也坦诚,这次因为时间紧迫没能把 MTP 完整集成进 RL 训练循环,但它与该流程高度契合。小米已经把三层 MTP 开源了,方便大家在自己的项目中使用与开发。

算力只用1/50,性能如何不打折?

预训练阶段,新模型使用 FP8混合精度,在27万亿 token 数据上完成训练,原生支持32k 序列长度。

FP8混合精度是一种压缩数值表示的技术,能在保持精度的同时减少显存占用和加速训练。这种训练方式在业界并不常见,需要对底层框架进行深度优化。

而在后训练阶段,小米整了个大活,提出了多教师在线策略蒸馏 (MOPD)。

传统的监督微调加强化学习管线,不仅训练不稳定,算力消耗还贼高。MOPD 的思路是让学生模型在自己的策略分布上采样,然后由多个专家教师在每个 token 位置提供密集的奖励信号。

通俗点说就是,学生模型自己写作业,老师在每个字上都给评分,不用等写完整篇才打分。这样一来,学生模型能快速从教师那里学到精髓,而且训练过程稳定得多。

最夸张的是效率提升,MOPD 只需要传统方法1/50的算力,就能让学生模型达到教师性能峰值。这意味着小米能用更少的资源,更快地迭代模型。

而且 MOPD 支持灵活接入新教师,学生模型成长后还能反过来当教师,形成「教与学」的闭环自我进化。今天的学生,明天的老师,后天又能教出更强的学生,套娃玩法属实有点东西。

用罗福莉的话来说,他们借鉴 Thinking Machine 的 On-Policy Distillation 方法,将多个强化学习模型进行融合,结果带来了惊人的效率提升。这为构建一个自我强化循环系统奠定了基础,学生模型可以逐步进化,最终成为更强的教师模型。

打开网易新闻 查看精彩图片

在智能体强化学习扩展上,小米 MiMo-V2-Flash 研究团队基于真实 GitHub issue 构建了超过10万个可验证任务,自动化流水线跑在 Kubernetes 集群上,并发能开10000多个 Pod,环境部署成功率70%。

针对网页开发任务,还专门搞了个多模态验证器,通过录制视频而非静态截图来验证代码执行结果,直接减少视觉幻觉,确保功能正确。

对于开发者而言,MiMo-V2-Flash 能与 Claude Code、Cursor、Cline 等主流开发环境无缝配合,256k 的超长上下文窗口支持数百轮智能体交互与工具调用。

256k 是什么概念? 大概相当于一本中等篇幅的小说,或者几十页技术文档。这意味着开发者可以把 MiMo-V2-Flash 直接融入现有工作流,不需要额外适配,拿来就用。

小米还把所有推理代码贡献给了 SGLang,并在 LMSYS 博客分享了推理优化经验。

技术报告公开了完整模型细节,模型权重 (包括 MiMo-V2-Flash-Base) 在 Hugging Face 上以 MIT 许可协议发布。这种全面开源的态度,在国内大厂里属实少见。

目前 MiMo-V2-Flash 已经在 API Platform 限时免费开放,开发者可以直接上手体验。

打开网易新闻 查看精彩图片

小米的 AI 野心,不止于手机助手

MiMo-V2-Flash 的发布,标志着小米在 AI 赛道上的全面发力。

罗福莉在社交平台上透露了更多信息,「MiMo-V2-Flash 已正式上线。这只是我们 AGI 路线图上的第二步。」第二步就已经这么猛了,那后面还有啥大招?想想就有点期待。

当然,小米在技术报告中也坦诚,MiMo-V2-Flash 与最强的闭源模型相比仍有差距。但他们的计划很明确,通过扩大模型规模与训练算力来缩小差距,同时继续探索更稳健、更高效的智能体架构。

打开网易新闻 查看精彩图片

MOPD 框架下教师模型与学生模型的迭代共进化,也为未来的能力提升留足了空间。

把视角拉高来看,背后是小米对整个 AI 生态的一次战略押注。手机、IoT、汽车,小米的硬件生态需要一个强大的 AI 底座,MiMo-V2-Flash 显然就是小米为全硬件生态准备的那块基石。

就像十四年前小米手机用1999元重新定义了旗舰机的价格标准,如今 MiMo-V2-Flash 正在用白菜价的成本、73.4% 的 SWE-Bench 得分,重新定义开源大模型的性能标准。

这一次,属于开源模型的「小米时刻」真的来了。

HuggingFace 模型地址:
http://hf.co/XiaomiMiMo/MiMo-V2-Flash
技术报道地址:
http://github.com/XiaomiMiMo/MiMo-V2-Flash/blob/main/paper.pdf

欢迎加入 APPSO AI 社群,一起畅聊 AI 产品,获取,解锁更多 AI 新知