今天早上,我打开手机,看到一条消息:DeepSeek V4发布了,同步开源。

我没有多想,直接发给技术团队:EasyClaw立即接入。

打开网易新闻 查看精彩图片

不是单纯为了追热点,我仔细看了这次发布的数字之后,意识到一个真实存在的门槛,今天消失了。

1M上下文,终于不再是特权

100万 token的长上下文,Claude、GPT-4.1、Gemini早已标配,但DeepSeek上一版V3还停在128k。这次V4直接跳到100万,一家公司几年的合同文档、一个项目所有的会议记录、整个季度的运营数据,可以整包丢进去,让它整体理解再回答,不再需要切片拼凑。

打开网易新闻 查看精彩图片

更关键的是怎么跳到的:它重新设计了底层注意力机制,处理100万token的场景,推理计算量只有前代的27%,显存降到10%。

以前靠堆算力才能做到的事,现在用更少的资源实现了。

编程能力站上同一擂台

DeepSeek V4-Pro,全球开源模型代码能力,这周正面对上了顶尖闭源模型。衡量Agent编程能力的黄金标准是SWE-bench——让模型自己去修真实代码bug,被认为最接近程序员的实际工作,很难刷分。

这周Claude Opus 4.7拿了87.6%,GPT-5.5打出82.7%,DeepSeek V4-Pro挤进了同一个区间。

打开网易新闻 查看精彩图片

DeepSeek内部让50多位工程师用V4-Pro处理真实编程任务,52%的人认为它可以作为主力工具——"可以当主力",这几个字的分量,工程师自己最清楚。

这是开源模型第一次站上这个台阶,和顶级闭源模型同台竞技。

用AI的费用门槛消失了

然后是价格。每百万token输出,DeepSeek V4-Pro是$3.48。Claude Opus 4.7是$25,GPT-5.5是$30。差距是7倍到9倍。

打开网易新闻 查看精彩图片

有一个数字我反复看了几遍:在100万token的长上下文场景下,DeepSeek V4-Pro的推理成本只有前代的27%,显存占用降到10%。它变便宜,是因为它重新设计了底层架构,变聪明了。

我来翻译一下这对企业意味着什么:一家公司几年的合同文档、一个项目的全部会议记录、整个季度的运营数据——AI以前吃不下,或者吃下来太贵。当推理成本降到这个位置,那些放在"以后再说"清单里的场景,今天全部变成了"现在就能做"。

国产AI,同场亮剑

还有一件事,比技术数据更重要。

DeepSeek V4选在GPT-5.5发布的同一天亮相,正面竞争,毫不回避。完全跑在华为芯片上,Apache 2.0开源,全球可用。

有一组数字比任何表态都有力:2023年5月,美中顶尖模型的性能差距是31.6个百分点;2026年3月,压缩到了2.7%。期间,美国私人AI投资是中国的23倍。

打开网易新闻 查看精彩图片

算法的不对称,抵消了算力的不对称。同台竞技,正面亮剑。

这只是开始,终点还远

有了最好的发动机,还需要一辆车。发动机再强,它自己不会把货从A地运到B地。企业真正需要的,是一套能实际干活的AI团队——有人负责内容生产,有人负责数据分析,有人负责运营执行,有人负责代码开发和系统巡检,各司其职,7×24小时不下班。

一个企业配置下来,同时运转的AI数字员工可以有七八个。(我本人用的那套,就是三万带着笔杆子、参谋、运营官等子Agent协同工作,这还只是其中一种配置。)

打开网易新闻 查看精彩图片

DeepSeek V4越强,这支团队的能力上限就越高;越便宜,企业搭建这支团队的门槛就越低。

这才是连锁反应真正发生的方式。这就是EasyClaw在做的事。

顶尖AI能力正在变成一种公共基础设施,真正的差距,在于你怎么把它用进你的业务里,建起来,跑起来,用得多深,走得多快。

每家公司都需要一支AI军团

2016年,我们在猎豹All in AI。

那时候很多人不理解。我说:每家公司都需要AI,只是时间问题。

今天,国产模型站上了全球第一梯队,AI推理成本降到了几年前想不到的位置。

你的AI团队,到底有多强——这才是未来竞争真正的问题。

时间到了,真的到了。

现在就可以试试:

  • 国内版:easyclaw.cn

  • 国际版:easyclaw.com

  • 企业版:easyclaw.work

打开网易新闻 查看精彩图片