2024年春节,DeepSeek-R1一声惊雷,炸得英伟达市值蒸发五千亿美元,美国媒体哀嚎“斯普特尼克时刻”重现。那一年,中国开源大模型首次在性能上追平美国闭源产品,训练成本却低至几十分之一——“国运级”成就,实至名归。
但技术竞赛从不等人。2025年下半年,美国AI巨头凭借无限算力和资金疯狂反扑,GPT、Gemini、Claude轮番迭代,性能飙升。到2026年初,业内弥漫着焦虑:中国AI是不是又被甩开了?
2026年第一季度即将结束,答案已经揭晓——中国AI企业集体发力,“DeepSeek时刻2.0”真的来了。
第一个发力的是字节跳动。
国内网友疯狂用它创作大量的视频,效果十分惊艳。国内游戏科学公司的创始人兼CEO、制作人冯骥盛赞其为“地表最强”,并称“AIGC的童年时代,结束了。”
由于当时Seedance2.0尚未开启海外服务,海外的一些发烧友和业内人士都在寻找中国境内的账号进行测试。许多海外电影制作专业人士表示“这个模型让人感到害怕”“将给好莱坞带来麻烦”,就连马斯克也在社交媒体上转发了相关帖子并赞叹“事情正快速发生”。
第二个发力的有两家公司。
2月12日,智谱公司开源了新一代大模型GLM-5,参数规模从此前的355B(激活32B)扩展至744B(激活40B),预训练数据从23T提升至28.5T,构建了全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,在多种算法上实现了创新。
根据多个AI评测机构的测试,GLM-5的各项分数均逼近甚至部分超越美国目前最强的三个闭源大模型:OpenAI公司的GPT5.2,谷歌公司的Gemini 3 Pro和Anthropic公司的Claude Opus 4.6。尤其是在编程能力上,GLM-5的进步巨大。
就在GLM-5发布后几个小时,上海稀宇科技又发布了他们的旗舰编程大模型MiniMax M2.5。虽然目前还没看到跑分对比,但据一些用户的测试,至少在编程能力上,它与目前最强的Claude Opus 4.6不相上下。
MiniMax M2.5主打跨端应用的全栈编程开发,尤其在 Excel高阶处理、深度调研、PPT等Office核心生产力场景中均处于行业领先(SOTA)地位。
更重要的是,中国海光公司宣布,GLM-5原生支持海光的AI算力芯片DCU,标志着中国AI全栈自主的又一方案诞生。
2月底,在全球最大的开源AI代码托管网站HuggingFace上,阿里巴巴的千问AI团队提交了Qwen3.5并入Transformers的PR,这意味着Qwen3.5版本正式发布。
3月初,Qwen3.5版开源了三款新模型,性能和架构获得广泛好评,就连马斯克都说它们“具备令人印象深刻的智慧密度”(Impressive intelligence density)。
去年全球最受欢迎的开源大模型就是QWen3,如今3.5版的性能逼近甚至超越美国顶级产品,达到了新的里程碑。
复盘一下今年初的几次大事件,字节跳动的Seedance 2.0让好莱坞感到害怕,智谱GLM-5在编程能力上硬刚Claude Opus 4.6,MiniMax M2.5全栈开发领跑行业,阿里Qwen3.5蓄势待发,DeepSeek的下一枚“核弹”或许已在路上……
这个春节,中国AI没有“休假”,反而以集群冲锋的姿态,将中美大模型的差距抹平乃至反超。
从单点突破到全面开花,从跟跑到并跑再到领跑——美国的技术霸权尚未落幕,但“独霸”时代确实结束了。当全球开发者开始为中国开源模型狂欢,当马斯克也不得不感叹“事情正快速发生”,世界必须适应一个新现实:AI的未来,将不再是美国主导。
热门跟贴