★ 设为星标 | 只讲人话,带你玩转AIGC。

昨天,全球最大的 AI 开源社区 Hugging Face(抱抱脸) 发布了他们中国开源系列的首篇文章:“DeepSeek 时刻”一周年。

打开网易新闻 查看精彩图片

图:Hugging Face 的文章

如果说 2023 年是“ChatGPT 时刻”,那么在 Hugging Face 的眼中,2025 年,无疑是属于中国开源 AI 的“DeepSeek 时刻”。

这篇报告不仅复盘了过去这一年中国 AI 的“狂飙突进”,更揭示了一个让无数开发者振奋的事实:攻守之势,已经异也。

我们一起来看看这篇有意思的复盘文章。

01 为什么是“DeepSeek 时刻”?

把时钟拨回到一年前,2025 年的 1 月。

当时,杭州的一家 AI 公司——DeepSeek(深度求索),扔出了那个后来改变一切的 R1 模型。

在 Hugging Face 看来,这不仅仅发了一个新模型,而是中国 AI 发展史上的一个分水岭。

因为数据记录下了一个历史性的转折点:这是中国开源模型,第一次真正杀进全球主流排行榜。

而且这一进就收不住了。

R1 迅速超越了 Llama 等西方顶流,成为了 Hugging Face 历史上获赞最多的模型。

看看现在的榜单,曾经被美国开发者的名字霸屏的时代,终结了。

打开网易新闻 查看精彩图片

图:获赞最多的模型

在随后的一整年里,R1 更是成了全球 AI 界的“度量衡”:任何新模型发布,都要拿来跟它比一比。

它不再是追随者,它成了标杆。

报告中有一段非常精彩的论述:

“R1 的发布给了中国 AI 发展最宝贵的东西:时间。”

在此之前,很多企业在“开源还是闭源”之间摇摆不定,受困于算力瓶颈。

但 R1 的出现,用事实证明了:即便算力有限,只要路线对、迭代快,中国依然可以弯道超车。

Hugging Face 总结了 R1 扫清的三个“障碍”:

  • 技术门槛碎了: 公开推理路径,把“推理”变成了人人可用的工程模块。

  • 应用门槛碎了: MIT 协议一出,直接商用,大家不再卷跑分,开始卷落地。

  • 心理门槛碎了(这点最关键): 报告用了 "Psychological" 这个词。翻译成大白话就是:中国开发者的“心魔”破了。 我们不再问“能不能做?”,而是开始问“怎么做得比别人好?”。

我们中国人说,破山中贼易,破心中贼难。

这种自信的回归,才是“DeepSeek 时刻”真正的灵魂。

02 被“倒逼”出来的黄金时代

R1 点了一把火,随后的 2025 年,中国 AI 界发生的事情,被 Hugging Face 称为“有机的生态爆发”。

这篇报告不仅夸了 DeepSeek,更点名表扬了百度、腾讯、字节、阿里等大厂。

数据显示,百度在 HF 上的发布数量从 0 飙升到 100+,其他大厂也是数倍增长。(阿里、字节发布数量翻了 8~9 倍)

打开网易新闻 查看精彩图片

图:HF 统计的中国公司的模型仓库增长情况

而 Kimi K2 的发布,更是被誉为“另一个 DeepSeek 时刻”。

更狠的还在后面。

这些模型发出来不是当摆设的。报告显示,在所有发布不满一年的新模型中,中国模型的总下载量已经超越了包括美国在内的任何其他国家。

打开网易新闻 查看精彩图片

图:中国模型的下载数量超过了任何其他国家

智谱 AI(Zhipu AI)的 GLM、阿里的 Qwen,已经不满足于发发权重了,他们开始构建完整的工程系统和接口。

每周 Hugging Face 上“最受欢迎”和“下载最多”的榜单里,中国模型几乎成了常驻嘉宾。

打开网易新闻 查看精彩图片

图:中国开源模型热力图

这里有一句非常有意思的评论:

“中国玩家们的协同,不是靠签协议,而是靠‘制约’。”

什么意思?就是说在同样的算力限制、合规要求和成本压力下,大家“被迫”默契地走上了同一条高效的工程化道路。

这听起来有点“内卷”的苦涩,但数据证明:这种高强度的竞争,卷出了一个生命力极强、甚至开始反超美国的生态。

我们不仅在发模型,更是在定义标准。

03 全球反转:现在,轮到西方“找替补”了

文章最让我感到魔幻现实主义的部分,是关于全球反应的描述。

曾几何时,我们是西方的学徒。但“DeepSeek 时刻”一年后的今天,世界变了。

这种变化,连大洋彼岸的巨头都坐不住了。

就在上周,微软(Microsoft) 发布了《2025 全球 AI 普及报告》,将 DeepSeek 的崛起列为 2025 年“最意想不到的发展之一”

微软在这份报告里揭示的数据,非常让人意外:

在非洲:DeepSeek 的使用率是其他地区的 2 到 4 倍。

原因很简单:免费、开源。它没有昂贵的订阅费,也不需要信用卡,彻底打破了硅谷设下的“付费墙”。

在被西方忽略的角落:数据显示,DeepSeek 在国内份额高达 89%,在白俄罗斯达到 56%,在古巴也有 49%。

打开网易新闻 查看精彩图片

图:DeepSeek 全球市占率分布

微软不得不承认一个扎心的事实:AI 的普及不仅仅取决于模型有多强,更取决于谁能用得起。

这种“农村包围城市”的胜利,让西方开发者彻底破防。

Hugging Face 报告指出,现在许多美国初创公司已经默认使用中国开发的模型作为基座。

甚至出现了“套壳”反转:美国发布的 Cogito v2.1(号称领先的开放权重模型),其实就是 DeepSeek-V3 的微调版。

甚至有一个美国的项目叫 ATOM (American Truly Open Model),他们的立项动机竟然是:“看到 DeepSeek 和中国模型太强了,我们必须奋起直追”。

看到这里,我真的忍不住想笑。曾几何时,这是我们的台词啊。

04 暴风雨前的宁静:DeepSeek 的“疯狂一月”

如果你以为 DeepSeek 在发完 R1 后就躺在功劳簿上睡大觉,那你就大错特错了。

就在 DeepSeek 时刻一周年即将到来的这段时间(从元旦开始),这家公司的一系列“反常”动作,让敏锐的技术圈嗅到了一丝暴风雨将至的味道。

动作一:清理“技术债”,R1 论文一夜暴涨 60 页

就在不久前,有开发者发现 DeepSeek 悄悄更新了那一年前发布的 R1 论文。

这一更不得了,页数直接从 22 页暴涨到了 86 页!

他们把过去这一年里所有的训练细节、失败尝试、甚至那些不为人知的“坑”,全部毫无保留地补全了。

这在行业里通常只有一个解释:这一页翻篇了,我们要去搞更牛的东西了。

动作二:底层架构大换血

紧接着,DeepSeek 密集甩出了两篇重磅新论文:《mHC》和《Engram》。

看不懂没关系,你只需要知道这两篇论文想干什么——他们在试图重写大模型记忆和思考的方式。

特别是 Engram,它想让模型拥有“即时查阅记忆”的能力。

这意味着,未来的模型可能更小、更快,但更聪明。

动作三:GitHub 里的神秘代码“MODEL1”

昨晚又引起大家关注的,是眼尖的网友在 DeepSeek 更新的 GitHub 代码库里,扒出了一个疑似新模型的代号——“MODEL1”。

打开网易新闻 查看精彩图片

图:DeepSeek 代码库泄露的 MODEL 1

这个不起眼的变量名,现在已经被各路大神盘包浆了。

大家都在猜,这会不会就是传说中即将要在春节期间发布的 DeepSeek V4?

“DeepSeek 的每一次沉默,通常都意味着一次更大的爆发。”

种种迹象表明,2026 年的春节,大概率又不会平静了。

Hugging Face 这篇报告的结尾,预测 2026 年将会有更猛烈的爆发,尤其是在架构和硬件的选择上,中国公司将继续通过开源生态施加影响。

回顾这魔幻的一年,从 DeepSeek R1 的惊天一雷,到百模大战的全面开源,再到如今 Hugging Face 官方以“DeepSeek Moment”为题来记录历史。

这不仅仅是技术的胜利,更是开源精神在东方的胜利。

我们不再是跟随者,我们已经坐在了牌桌的主位。

2026,好戏才刚刚开始。

参考资料:

https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment

https://www.microsoft.com/en-us/research/wp-content/uploads/2026/01/Microsoft-AI-Diffusion-Report-2025-H2.pdf

今日互动:

你觉得“DeepSeek 时刻”给你的工作或生活带来了什么改变?

欢迎在评论区留言,我们一起见证历史。