打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

临近4月24日中午,DeepSeek官方公众号发布公告:《DeepSeek-V4 预览版:迈入百万上下文普惠时代》。被催更已久的V4终是来了、

打开网易新闻 查看精彩图片

在我看来,写在这篇公告文章最末尾的一句话,比前面所有跑分数据都重要:

“不诱于誉,不恐于诽,率道而行,端然正己。”

这是一个组织,在承受了十五个月的猜测、质疑、唱衰之后,对外界的唯一回应。把这句话放在更大的背景中读,它的潜台词大约是:我们知道自己在做什么,我们不在乎你们怎么说。

而V4给出的答卷,确实不是一次常规迭代。

在我看来,V4的核心意义并不在于跑分——尽管V4-Pro在Apex Shortlist上拿到90.2%,Codeforces Rating冲到3206,在开源模型中已是碾压级的存在。真正的分水岭,藏在三个数字里:

第一,成本。 1M上下文中,V4-Pro的单token推理FLOPs只有V3.2的27%,KV Cache只有10%;V4-Flash更极端,分别压到10%和7%。这意味着上下文从128K扩展到1M,理论负载膨胀近8倍,而单token算力消耗反而下降了。在AI行业,能力提升通常以算力膨胀为代价。V4打破了这个规律。这种反向的效率革命,让很多原本只存在于白皮书里的Agent场景,突然有了经济可行性。

第二,芯片。 V4全面运行于华为昇腾、寒武纪等国产芯片,技术架构从CUDA转向CANN框架。这是全球首个在纯国产算力上训练和部署的万亿参数MoE模型。按黄仁勋话说:“这对美国是糟糕的结果。” V4验证了一件事:离开CUDA生态,中国AI的底层算力循环可以跑通。这个信号对产业链的冲击,远比模型本身的跑分更具颠覆性。

第三,Agent。 V4-Pro在Agentic Coding评测中已是开源最佳,内部使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。同时,V4针对Claude Code、OpenClaw、CodeBuddy等主流Agent框架做了专项优化——这不是一个“能聊天”的模型,而是一个“能干活”的模型。从V4开始,DeepSeek的定位明确转向Agent基础设施。

这三个信号加在一起,指向一个更底层的判断:V4之后,中国AI应用寒武纪大爆发的奇点降临了。

01

奇点

这个判断需要解释。

5.4亿年前,寒武纪生命大爆发。在地质尺度上几乎是一瞬间,海洋中涌现出大量形态各异的动物门类。更准确的说法是,可辨识的动物化石群集在化石记录中骤然陡现。学界有一个共识:寒武纪爆发的前提不是单一因素,而是氧气浓度、海洋化学、生态位空缺、Hox基因演化等多个条件的同步满足。物种多样性突然跃升,是因为底层环境达到了临界阈值。

今天AI产业的底层环境正在达到同一类阈值。

首先是成本阈值。V4-Flash定价每百万token输入1元(缓存未命中)、输出2元。V4全面适配国产芯片,基本证明在Agent时代,在推理侧不过度依赖英伟达高端GPU的可行性。

这一逻辑,意味着一个开发者用几美元就能处理一部《三体》体量的上下文。成本下降到这一水平,应用场景会从“能做什么”变成“为什么不试试”,这才是Agent落地的真正基础。

其次是性能阈值。在Agentic Coding评测中,V4-Pro已是开源最强,内部使用体验优于Sonnet 4.5。在1M上下文设置下,V4-Pro的单token推理FLOPs只有V3.2的27%,这一效率突破在全球范围内领先。在数学、STEM、竞赛型代码测评中,V4-Pro超越所有已公开评测的开源模型,比肩世界顶级闭源模型。

这杨的基本事实,意味着模型的“智能密度”,单位算力产生的有效智力,已经跨过了一个临界点。

最后是工具链阈值。V4针对Claude Code、OpenClaw、CodeBuddy等主流Agent框架做了专项优化,在代码任务、文档生成任务等方面均有提升。百万上下文成为所有官方服务的标配。

这恰恰是Agent长时间自主工作的前提。它不再是“玩具”,可以直接部署到生产环境中。

三个阈值同时被突破:成本低到足以铺量,性能强到足以胜任,生态准备好落地。 这不是线性改良,这是相变。

一个有趣的对照是:V4技术报告中,官方坦承模型能力仍落后GPT-5.4和Gemini-3.1-Pro约3至6个月。这个表态反而说明,V4的意义不在于追赶谁,而在于它把“基础智能”这个底座做扎实了。一旦底座成立,上面的应用层会自发涌现。

历史的经验很直接:每一次底层基础设施的质变,都会引爆应用层的寒武纪式大爆发。亚马逊云服务将计算成本压到阈值以下,引爆了全球SaaS创业潮;4G资费降至阈值以下,引爆了短视频和直播电商时代。今天DeepSeek V,4正在将基础智能成本压到同一类阈值以下,而且这次颠覆的,是智力本身。

02

地震

让我们把视角拉低,来看看这场寒武纪爆发的第一批信号。

最值得关注的,是产业链的重构速度:V4适配华为昇腾950PR之后,寒武纪、海光信息、摩尔线程等国产芯片企业同步加速适配,阿里、字节、腾讯等巨头加码采购昇腾芯片。

这不是一家模型公司的发布,是一整条国产算力产业链的启动。

应用层的连锁反应同样激烈。最直接的冲击是Agent经济性的质变。以V4-Flash 100万token的API成本计算,一个需要完整阅读中型代码仓库的任务预算仅需几美元。在这种成本结构下,“让Agent试错”首次具备了工程合理性,Agent大规模部署的经济基础已经成立。

此外,V4-Flash每百万token输入0.2元起的价格,几乎将AI推理推入了一个“水电煤化”的新阶段。当智能的边际成本趋近于零,整个应用层,客服、电商、教育、医疗、法律,都将以难以想象的速度被重新定义。

还有一个容易被忽略的信号:V4发布前,DeepSeek首次启动外部融资,最新目标估值据说超过200亿美元。在我看来,这更像是一个机构在完成核心基础设施建设之后,开始为大规模部署备弹的信号。

03

范式转移

关于V4的产业影响,将它放入一个更大的坐标系中,会发现一种更深层的变化正在形成:中国AI从“追赶模型能力”转向了“生态循环”,模型、芯片、应用正在形成正反馈闭环。

V4率先证明了国产芯片承载万亿参数模型的可行性,直接拉动了寒武纪、海光、摩尔线程等企业的同步成长。这些芯片企业有了市场验证之后,会更有信心投入下一代产品研发。

下一代芯片性能更强、成本更低,反过来又会降低模型推理成本,催生更多开发者和应用场景。应用场景的扩大产生更多数据和反馈,进一步推动模型能力的提升。中国“模型—芯片—云”闭环,正在从“逻辑成立”走向“事实成立”的阶段。

在芯片生态层面,尽管参与全球竞争的在预训练阶段,英伟达和它CUDA仍是最佳甚至唯一选项,

但当V4成为首个在推理侧不依赖英伟达CUDA的万亿级模型之后,一个转折性信号已然显现:中国AI正在从单点突破走向系统性的代际进化。新的叙事应当是:中国AI正在建立一个独立于英伟达生态的、从芯片到模型到应用的完整技术闭环。

这个闭环一旦跑通,其意义远超任何单模型的能力突破。

DeepSeek V4正在成为一个具有基础设施意义的存在,它的开源生态、成本定价策略和芯片适配路径,即将快速重塑整个中国AI应用生态的格局。

04

寒武纪

让我们把视野拉得更高。

过去几年的AI产业,一直在回答一个问题:模型能力的上限在哪里?从GPT-4到GPT-5.4,从Claude到Gemini,所有人都在沿着“更大参数、更高智能”的单一路径冲刺。但这个框架有一个盲区:当模型智能达到一定水平之后,决定产业格局的就不再是“谁的模型更聪明”,而是“谁的模型能铺得更广、用得更深”。

V4的出现,正在让AI产业的竞争焦点从“能力竞赛”转移到“生态竞赛”。

这不是某个模型的胜利,这是开源生态对闭源壁垒的胜利,是成本重构对算力门槛的胜利,是国产技术栈对技术垄断的胜利,更是开发者与用户对少数巨头定价权的胜利。

DeepSeek V4在MIT许可下开源,意味着全球任何开发者都可以本地部署、自由商用、二次开发。这种开放程度,正在让闭源巨头的护城河加速瓦解。

05

结语

“不诱于誉,不恐于诽。”

在一个充斥着噪声和博弈的行业里,有一种能力是稀缺的:在所有人都质疑的时候,保持沉默,继续写代码;在所有人都唱衰的时候,打开终端,继续训练下一个版本。V4迟到了十五个月。

但这十五个月没有被浪费。它们被用来从CUDA迁移到CANN,用来把上下文从128K拉到1M同时把成本打下来,用来在Agent能力上一步一步逼近了全球第一梯队。

这些沉默的工程量,不会出现在任何一篇博人眼球的报道里。但它们正在成为未来十年AI应用的基石。

你会发现:中国AI应用最肥沃的土壤已经准备就绪。一场智能物种的大爆发,正在地表以下积蓄能量。