这两天,AI圈又炸了。

不是什么新模型刷榜,也不是哪家大厂融资,是一条看起来有点"低调"的消息——

DeepSeek V4要来了。

而且,这次不一样。

打开网易新闻 查看精彩图片

01 真正的大事

4月8号,DeepSeek网页端悄悄上线了两个模式:"快速模式"和"专家模式"。

听起来好像就是个产品更新对吧?

但业内人都懂,这是在给V4铺路。

因为就在这两天,DeepSeek创始人梁文锋在内部透露:V4会在4月下旬正式发布。

万亿参数。

百万级上下文窗口。

这些数字听起来很吓人,但真正让我停下来想了一晚上的,是另一件事——

首次实现与华为昇腾等国产芯片的深度适配。

我再说一遍:首次。

02 等了多久

这个问题,可能很多人没有概念。

过去几年,中国AI公司训模型,基本只有一个选择:英伟达的CUDA生态。

你用国产芯片?可以,但适配成本极高,性能损耗巨大,最后还是得回到英伟达的怀抱。

这就是所谓的"卡脖子"——不是芯片造不出来,是你的芯片跑不动主流模型。

DeepSeek这次做的事,本质上是打开了一个缺口。

"去CUDA化"这个口号,喊了很多年,终于有人真的迈出去了。

而且不是玩票性质的兼容测试,是"深度适配"。

这意味着什么?

意味着以后训模型,国产芯片真的能用了。

03 大厂已经动手了

消息刚出来,阿里、字节、腾讯已经行动了。

据媒体报道,这三家预订了数十万片新一代AI算力芯片。

为什么这么急?

因为谁先拿到算力,谁就能先上线新模型。

而DeepSeek这次的"快速+专家"双模式,明显是在告诉市场:

我们准备好了。

快速模式适合日常对话,响应快,能识别图片和文件;专家模式擅长复杂任务,支持深度思考和智能搜索。

这说明什么?

说明DeepSeek正在构建一个完整的模型矩阵——

以后可能还会有更轻量的、更深度、更多模态的不同入口。

这不是一个模型发布,是一整个生态在成型。

04 更大的意义

说点更远的。

过去一年,中国AI最缺的是什么?

不是钱,不是人,是信心。

每次有新模型发布,总有人问:这是不是又套壳?能不能自主可控?国产芯片什么时候能用?

这些问题,DeepSeek V4给出了一部分答案。

万亿参数、百万上下文,这是硬实力的体现;

国产芯片深度适配,这是生态独立的开始。

当然,我说的是"开始",不是"完成"。

CUDA生态积累了十几年,国产芯片要追上,还有很长的路要走。

但至少,这条路现在有人走了。

05 写在最后

这几天我一直在想一个问题:

中国AI到底需要什么?

是更多的大模型吗?是更多的论文吗?是更多的融资吗?

可能都不是。

我们需要的,是一次次真实的、可验证的突破。

DeepSeek V4是不是这个突破?

现在下结论还为时过早。

但有一点是确定的:

每一次这样的尝试,都在把中国AI往前推一小步。

愿这些一小步,最终能汇聚成我们真正想看到的那个未来。

磨平一些信息差。

这好像,就是我为数不多能做的。