【潮汐商业评论/文】
2026年4月24日,全球AI行业出现罕见的“一天三发”。
凌晨,OpenAI正式发布GPT-5.5,宣称这是“迄今为止最智能、最直观易用的模型”,OpenAI距离 “超级应用”更近了。
上午,被国人期待许久的DeepSeek V4系列亮相,1.6T总参数、49B激活规模、1M上下文窗口,以及后来宣布的开源,让很多人感叹“价格屠夫回来了”。下午,美团新一代基础大模型LongCat-2.0-Preview开放测试,同样支持1M上下文窗口、单次推理中可吞吐百万字输入,值得关注的是,它的参数规模也与V4相当。
同一天,大模型“万亿俱乐部”迎来了两个中国玩家。
如果算上“谷歌计划向Anthropic投资最高400亿美元”的消息,这一天值得被反复提及。
一方是进一步强化技术优势和话语权的美国巨头,另一方是主要代表开源模式的中国科技公司。我们不能以简单的参数竞赛视角来审视双方,但不容忽视的是,无论DeepSeekV4还是LongCat-2.0-Preview,都在全面深度地适配国产算力生态。
据悉,DeepSeek-V4已完成对华为昇腾、寒武纪等主流国产AI芯片的全栈深度适配;而LongCat-2.0-Preview的训练与推理,全程依托国产算力集群独立完成,是目前唯一一个国产卡训练的万亿大模型。
有行业媒体形容,他们“正在用不到OpenAI零头的资源训练出同等水平的模型”。
客观来看,国产芯片在单卡绝对性能和集群互联算力上与英伟达仍有差距。但两个中国大模型同时开始立足于国产算力生态,无疑具有里程碑意义——如果说OpenAI代表的是“算法闭源+英伟达算力”,那么DeepSeek与美团LongCat的此次版本更新,则意味着中国AI产业在“开源+国产算力”的路上,迈出有分量的一步。
“一旦主流开源大模型在中国国产算力生态上实现了规模化落地,美国芯片在AI领域的护城河,就会被彻底打开一个缺口。”不久前,英伟达CEO黄仁勋在访谈中表达的担忧,正在变为现实。
01 “万亿俱乐部”同时迎来两个中国大模型,意味着什么?
国产大模型在“算力自主”的层面上“会师”,让长期由少数几家厂商主导的AI算力格局,出现值得关注的变量。
在过去几年里,中国AI企业面对的挑战,早已不仅是“算力受限”的单一问题,而是“硬件+软件”的双重制约。在硬件端,英伟达事实上长期扮演“算力垄断者”的角色。
数据显示,其芯片占据全球AI训练市场约90%、AI服务器市场约97%的份额。供不应求之下,高端AI算力芯片常年保持30%至70%的溢价。黄仁勋在2025年11月财报电话会上曾透露,其未交付订单总额高达5000亿美元,高端架构已排到2027年。与此同时,美国持续限制对华先进芯片出口,国内企业只能采购性能受限的特供产品,无论是通用大模型研发还是产业级AI落地,都面临切实的算力制约。
在软件端,闭源趋势也在加深。OpenAI、谷歌、Anthropic等将核心算法、训练数据与权重完全闭源,对中国区限制服务访问,禁止本地部署与二次分发。2026年,OpenAI更联合Anthropic、谷歌组建联盟,限制国内大模型进行技术蒸馏。
在外部多重制约的现实面前,构建自主可控的AI生态,对国内企业不再是选择题,而是必答题。
DeepSeek V4与美团LongCat-2.0-Preview的同日登场,释放了一个清晰的信号:国产芯片与国产AI生态,正在部分尖端场景,实现从“可用”到“好用”的关键跨越。
更为关键的是,国产大模型与国产算力之间,正在形成“互相成就”的正向循环。万亿级大模型的极限锤炼,让国产算力的底座更加坚实。据了解,LongCat-2.0-Preview全程基于国产芯片完成训练与推理,动用了5至6万张国产算力卡,刷新了目前国产算力规模最大的大模型训练任务纪录。
反过来,国产芯片生态的进步,也让模型本身极具性价比,正在快速缩小与国外闭源产品的差距。
实际使用效果上,尽管关注度不及DeepSeekV4,但LongCat-2.0-Preview的实力不容小觑。其参数规模同样突破万亿,实际效率跻身顶尖水平。例如,让其在1分钟内生成一个涵盖中国历史演变起源与朝代更替的复杂交互式HTML网页,不仅能做到内容流畅、逻辑严密,其生成的视觉与代码效果甚至不输主流闭源模型。
“如果这条路走通了,意味着全球开发者和企业有了更多选择。”有行业资深人士指出,以前万亿参数模型的训练门槛极高,曾被视作唯有掌握顶级英伟达GPU的企业才能触及的高地。大模型“万亿俱乐部”新增两名中国成员,让国产算力迎来了一个重要的分水岭。
02 靠拢国产算力,何以成为共识?
国产算力的突破,关键在于模型厂商、科技巨头与芯片厂商的多方协同。这一历程,经历了从被动应对到主动布局、从单点突破到形成生态共识的深刻转变。
2022年之前,国产AI加速卡市场份额不足5%,核心技术受制于人是回避不了的现实。算力供给高度依赖进口,不仅采购成本高昂,更面临供应链随时可能中断的风险。由于CUDA生态壁垒难以打破,国产算力长期处于产业边缘,不得不沿着海外既定技术路线追赶。
然而,地缘环境的变化,以及《算力基础设施高质量发展行动计划》等顶层政策相继出台,“支持国产算力”已从一句口号加速落地为行业共识。
IDC最新报告显示,2025年中国AI加速卡市场中,国产芯片合计出货量已达165万张,市场份额突破四成。市场预测,2026年以昇腾为首的国产AI芯片市占率有望首次跨越跨越50%大关。
目前国内企业支持国产算力已演化出三种极具代表性的主流模式:
一种是大厂“自建智算集群”模式。阿里、腾讯、字节等互联网巨头依托云业务,大规模建设国产智算中心,将昇腾、寒武纪等芯片规模化部署,为自有模型与第三方开发者提供普惠算力,从供给侧降低行业准入门槛。
一种是“早期投资+生态”的布局模式。以美团为例,王兴曾透露,美团AI领域进行了持续且高强度的投入,“除有云计算业务的企业外,美团在AI上的投入规模,大概率是国内企业里最大的,且已坚持布局三年多。”目前,美团围绕通用GPU、芯片设计、半导体材料、边缘AI构建了庞大的算力矩阵,投资了摩尔线程、沐曦股份、紫光展锐等14家以上的半导体和智能硬件企业。
还有一种,也是值得关注的“软硬协同”模式。 模型厂商对接、应用国产算力的过程中,持续互动,进行反哺。比如训练过程中,为提升国产芯片显存容量、带宽、软件生态、集群稳定性等方面的性能,美团AI团队重写优化核心算子、自研全确定性算子,结合国产硬件的特性,做了更具“亲和力”的训练框架与模型结构,最大化释放国产芯片的计算潜能。
核心在于“模型定义算力、算力支撑模型”。大模型企业在国产算力训练中趟过的“坑”、沉淀的海量工程经验,直接反哺了国产芯片的迭代优化,加速推动生态走向成熟。
如今,智谱GLM-5、文心一言、通义千问、豆包等主流模型均已全面适配或正在适配国产算力。
03 国产AI生态,依然是一场严峻的持久战
不过,在DeepSeek、LongCat和kimi们进行突破之际,中国AI行业仍需保持清醒,与英伟达和OpenAI相比,无论是国产算力还是大模型厂商,客观差距依然存在,远未到开香槟的时刻。
一个细节是,DeepSeek也并未完全放弃英伟达生态,而是选择了英伟达与昇腾“双栈并行”的策略。毕竟,算法层面的极致优化,目前还无法完全抹平芯片互联带宽、基础软件生态(如CUDA的先发优势)等物理和生态层面的差距。
有行业人士给出了一个精准的评价:“DeepSeek对显存、激活参数的极致压榨,把MoE架构玩出花,死磕每个Token的计算效率,这不是为了炫技,而是为了给受限的硬件打补丁。”
从追赶到局部并跑,中国AI产业注定还有一场漫长的持久战,但国产AI生态的底气,正在增加。
一方面是,中国AI行业已经探索出了一条走开源模式、走算法创新、走场景生态的差异化路线。作为全球最大的工业国,中国拥有全球最庞大多样的物理世界场景与需求,这是OpenAI等美国公司难以复制的独特优势。
以美团为例,其拥有遍布全国2800多个市县的即时配送网络,在无人机、无人车配送上积累了海量数据。这些业务覆盖了中国最复杂的任务需求和物理环境,为大模型的应用与进化提供了天然试验田,无人配送、食品安全等实际业务,也为多种计算架构和性能的芯片提供了真实的“需求牵引”。 另一方面,在庞大的需求下,国产大模型和算力正呈现出的“指数级”迭代速度。
在DeepSeek V4、美团LongCat-2.0-Preview之外,智谱GLM-5、MiniMax M2、文心一言4.0、通义千问3.5等头部模型持续快速迭代。在算力端,华为昇腾、中科曙光等新一代硬件密集落地,“训练—推理—部署”全链路向国产算力底座的迁移,已经进入到实质性阶段。
两条路径交汇,国内模型与算力的综合势能正在加速积累。4月13日,斯坦福大学HAI发布的《2026年人工智能指数报告》指出,中美AI模型性能的差距正在大幅收窄。但另一方面,美国在基础模型创新、资本投入和算力基础设施上依然保持领先,拥有5427个数据中心。
技术的突破从来不是一蹴而就。从CUDA到国产框架,从英伟达到国产算力,从闭源垄断到开源普惠,中国AI正在用一种“飞行中换引擎”的极致操作,重构底层能力。
LongCat-2.0-Preview与DeepSeek V4的同日登场,是中国AI生态走向新起点的姿态,也是中国AI生态迎来百花齐放、自主可控的新纪元的号角。
越来越多的中国玩家进入大模型的“万亿俱乐部”,将是中国AI生态迈入新阶段的信号,也是国产AI走向规模化、自主化的重要注脚。
热门跟贴