打开网易新闻 查看精彩图片

·聚焦:人工智能、芯片等行业

欢迎各位客官关注、转发

前言

4月的AI圈,月之暗面发布Kimi K2.6开源模型,将Agent集群能力推至300个子Agent并行协同的新高度。

深度求索DeepSeek V4如约而至,把百万级上下文的推理成本压缩至前代的27%。

一周之内,两个总参数超万亿的开源模型先后落地,全球技术社区的讨论热度持续攀升。

过去15个月里,两家公司在关键技术节点上的同步,已经到了让人会心一笑的程度。

从同日发布推理模型、前后脚更新底层架构论文,到互相复用验证过的核心技术、不约而同攻坚Transformer底层基石。

这种被网友戏称[心有灵犀]的默契,早已不是简单的巧合。

作者| 方文三

图片来源 | 网络

打开网易新闻 查看精彩图片

被精准对齐的技术节奏

两家公司的技术演进路径,每一个关键节点的同步,都指向行业最核心的技术命题。

2025年1月,DeepSeek-R1推理模型与Kimi K1.5多模态思考模型同日上线,相隔仅两个小时。

二者均是国内最早复现OpenAI o1思维链技术的团队,直接把国产大模型的复杂推理能力拉到了全球第一梯队。

2025年7月,Kimi发布K2开源模型,被《自然》杂志称为[又一个DeepSeek时刻]。

这个万亿参数模型的技术报告里,明确采用了DeepSeek-V3首创的MLA多隐头注意力机制。

同时首次在万亿级规模上验证了二阶优化器Muon的可行性,替代了行业沿用十年的Adam优化器。

九个月后,DeepSeek V4正式官宣,绝大多数模块改用Muon优化器,完成了对这项技术的进一步优化与落地。

打开网易新闻 查看精彩图片

在Transformer底层架构的重构上,两家的动作同样高度同频。

2026年初,DeepSeek推出mHC流形约束超连接技术,改造深度学习网络的残差连接,将训练效率提升30%。

仅两个月后,Kimi发布的注意力残差技术论文,同样针对Transformer的核心结构实现突破。

甚至在长上下文这条核心赛道上,两家也选择了不同解法、同一目标。

Kimi深耕线性注意力机制,将长文本计算复杂度从O(n²)降至O(n),从理论层面实现极致优化。

打开网易新闻 查看精彩图片

DeepSeek则聚焦DSA稀疏注意力架构,把百万级上下文的KV Cache显存占用压缩至原有10%。

这种同步没有陷入同质化内卷,反而形成了清晰的能力互补。

DeepSeek始终聚焦模型底层的效率重构,把训练与推理成本打到极致,用全栈开源建立开发者信任。

Kimi则从长文本能力出发,逐步向长程编码、Agent集群、复杂工程任务落地延伸,解决模型如何真正融入工作流的核心问题。

一个筑牢底层技术底座,一个拓宽产业落地边界,路线看似不同,却共同撑起了国产开源模型的全球竞争力。

打开网易新闻 查看精彩图片

默契背后的国产AI路线共识

DeepSeek与Kimi的技术同频,是行业浪潮奔涌到临界点时,技术规律与时代大势共同书写的答案。

经过三年多的摸石过河,中国AI终于走出了一条区别于硅谷的、属于自己的发展道路。

开源生态的正向循环,是这份默契形成的核心基石。

开源从来不是简单的代码开放,而是一套[创新-验证-复用-再创新]的飞轮机制。

当DeepSeek将验证成熟的MLA注意力机制开源,Kimi便跳过了无数试错的深坑,直接在万亿级模型上完成规模化验证。

当Kimi分享Muon优化器的万亿级落地经验,DeepSeek又能在此基础上迭代优化,适配更多产业场景。

打开网易新闻 查看精彩图片

与OpenAI、Anthropic等海外巨头将技术锁在闭源黑箱中不同,中国的头部玩家选择把创新变成全行业的公共财富,让单点突破快速裂变成为集体跃迁。

如今,二者已是中国唯二总参数超万亿、权重完全公开的模型,连英伟达GTC大会都用它们来演示下一代芯片性能,这正是开源生态赢得的全球尊重。

行业核心命题的转变,让所有真正的探索者走向了同一条赛道。

当[堆参数]的内卷走到尽头,行业的终极考题变成了:如何在有限的算力约束下,实现模型能力的持续突破,让技术真正转化为生产力。

这个命题直接决定了技术路线的收敛,用更低的成本,造更强的模型,做更实的落地。

DeepSeek与Kimi的同频,本质上是两家都精准击中了行业的核心矛盾。

他们没有满足于在海外巨头划定的框架里做微创新,而是不约而同地扎进了大模型最硬核的根技术:优化器、注意力机制、残差连接。

打开网易新闻 查看精彩图片

选择重构底层框架这条路注定艰难,但正是这份对底层创新的执念,让国产AI第一次拥有了和海外巨头掰手腕的底气。

海外持续升级的算力管制,则是这份路线共识形成的最强外部推力。

无限堆砌高端算力的路径早已被堵死,中国AI必须在算法创新与工程优化上杀出一条血路,用更少的算力,实现更好的效果。

Kimi直言不具备无限算力的条件,因此始终死磕算法与系统效率。

DeepSeek则用极致的工程优化,将模型推理成本降到了行业顶尖水平,V4-Flash的API价格仅为海外同类产品的百分之一。

打开网易新闻 查看精彩图片

真正的技术普惠,从来不是喊出来的口号,而是用极致的工程创新,把AI的门槛踩到泥土里,让千行百业都能轻松踏上去,用得起、用得好。

站在行业的坐标系中回望,DeepSeek与Kimi虽选择了不同的突围路径,却正奔赴同一个终点,而中国AI的三大核心共识已清晰成型。

①全面拥抱开源,与美国[闭源为主+高定价]的模式形成鲜明对比。

②锚定自主可控的算力底座,模型的能力上限,终究取决于算力体系的可控底线。

③让应用需求重新定义技术方向,彻底脱离[为参数而参数]的内卷,回归[为价值而创新]的本质。

硅谷在[造墙],中国在[修路]。

墙的核心是控制与垄断,试图用技术壁垒守住先发优势。

路的核心是连接与开放,用生态的繁荣撬动更长远的未来。

从DeepSeek为华为昇腾重写200多个核心算子,到Kimi K2.6在昇腾、壁仞等国产芯片上快速跑通......

黄仁勋那句[如果DeepSeek先在华为平台发布,对美国将是可怕的结果],恰恰印证了这条路的力量。

这条路是被逼出来的,但历史无数次证明,被迫的创新往往能打开全新的天地。

打开网易新闻 查看精彩图片

全球AI格局发生微妙的变化

2026年一季度,OpenRouter官方数据显示,Kimi K2.6在调用量榜单上冲到全球第一,DeepSeek V3.2排名第四。

这个平台是全球最大的AI API聚合市场,调用量排名反映的是真实的市场选择。

更耐人寻味的是下游应用的变化,Cursor Composer 2发布时,对外宣称是[自研]。

但很快被技术社区扒出底座是Kimi K2.5,不是简单调用API,是直接拿K2.5微调出来的。

Cursor创始人后来接受采访时承认:[Kimi K2.5是我们测试过的最强基座模型]。

日本乐天Rakuten的AI助手也用上了DeepSeek V3作为底座,当一个开源模型的性能足以对标闭源顶级选手时,理性的选择就是用它。

斯坦福大学的一份报告显示,中美顶级AI大模型性能差距已从2024年的17.5%,缩小到2025年的0.3%。这个数字可能有些理想化,但趋势是明确的。

中国AI的新叙事,正在从Copy to China变成Copy from China。

打开网易新闻 查看精彩图片

结尾:

十四个月前,梁文锋说:中国AI最需要证明的是[能不能做出一款世界级的基础模型]。

十四个月后,杨植麟说:问题已经变成[在被封锁的算力生态里,能不能持续地做、一起做,让基础能力的跃迁变成常态]。

现在,DeepSeek和Kimi,两个广东年轻人,正在用万亿参数的开源模型,把这句话翻译成现实。

部分资料参考:字母榜:《这一次,梁文锋和杨植麟隔空握手》,机器之心:《翻完DeepSeek报告,我们发现了中国AI的默契》,APPSO:《扒完 DeepSeek V4 报告,我翻出了这个隐藏彩蛋》,凤凰网科技:《两个广东人的五次撞车,撞出最强开源双雄的底气?》,腾讯科技:《中国芯片,DeepSeek与Kimi的隐秘交点》

本公众号所刊发稿件及图片来源于网络,仅用于交流使用,如有侵权请联系回复,我们收到信息后会在24小时内处理。

请务必注明:

「姓名 + 公司 + 合作需求」