2026年刚开年,科技圈就炸锅了!字节跳动前脚刚扔出两套大模型,后面国产科技圈直接跟上了趟——摩尔线程这边更绝,居然在自家GPU上当天就适配了MiniMax的新模型?这速度,难道国产大模型真要集体起飞了?

打开网易新闻 查看精彩图片

你可能好奇啥叫“Day-0适配”?简单说就是模型刚官宣发布,摩尔线程当天就能让它在自家MTT S5000 GPU上跑起来,而且性能一点没打折。就像你刚刷到新出的爆款游戏,当天就能用自己的电脑满帧畅玩,连等驱动更新的时间都省了——这速度,简直给国产大模型装了“火箭推进器”!

那这次适配的MiniMax M2.5,到底是个啥来头?答案直接对标了国外大佬Anthropic刚发的Claude Opus 4.6。为啥不是GPT-5或者Gemini?看几个细节就懂了:编程能力上,BridgeBench测试里M2.5只比Opus 4.6低0.4分,几乎肉眼看不出差距;处理复杂智能体任务,M2.5平均22.8分钟搞定,Opus 4.6是22.9分钟,简直打了个平手!硅谷那边都有人喊“M2.5便宜又能打,编程党狂喜”了。

而且办公场景更有意思——Excel高阶处理、PPT智能生成、深度调研这些Claude最擅长的赛道,M2.5直接标榜自己是行业领先。这不就是明摆着正面硬刚吗?你想啊,国外模型在办公场景占了那么久优势,现在国产的直接说自己更牛,这底气从哪来?

打开网易新闻 查看精彩图片

最狠的还不是性能,是价格!调用费只有Opus 4.6的1/8——算笔账给你听:每秒输出100个token,连续用一小时才1美元;每秒50个token更划算,只要0.3美元。MiniMax自己说,1万美元能让4个智能体连续干一年——这价格,直接把国外模型的成本门槛砍到脚脖子了吧?中小企业再也不用因为成本望而却步,这波性价比真的绝了。

便宜不是天上掉下来的,MiniMax在工程上真下狠功夫了!他们搞的Forge RL系统,用Prefix Tree Merging把重复的前缀合并成树结构训练,直接快了40倍;还有三重奖励机制——过程奖励盯着中间步骤,时间奖励逼着执行效率,Reward-to-Go压梯度方差。这些优化,没在真实超大规模场景里踩过坑、摸过爬,根本做不出来。

打开网易新闻 查看精彩图片

再看摩尔线程的硬件,MTT S5000单卡80GB显存,带宽1.6TB/s,FP8算力第一次到了PFLOPS级别(1000 TFLOPS)——但光看参数没用,关键是Day-0适配这事儿本身。你看,智谱GLM-5发了它适配,千问QwQ-32B发了它适配,现在MiniMax M2.5发了又适配——这哪是技术响应快啊,明明是在抢生态卡位!

现在大模型迭代太快,谁能第一时间给新模型稳定支持,谁就能绑住开发者,挤进客户的技术清单。而且这不是简单“能跑就行”,是要吃透模型新结构——比如M2.5的Prefix Tree Merging,能不能针对L3 KV Cache Pool做硬件级缓存协同?这些才是真·护城河,不是随便一个厂商能做到的。开发者要是用新模型,摩尔线程当天就能支持,那他们肯定优先选这套组合,毕竟省时间省麻烦,还能拿到最新的优化。

聊到这儿,有人肯定想问:国产大模型和芯片到底能不能打?从性能看,M2.5和Opus 4.6的差距已经缩到零点几分,编程、办公这些核心场景基本持平;从价格看,1/8的调用成本直接拉开差距;从生态看,摩尔线程这种Day-0适配,正在把“国产组合拳”变成常态。

当然,差距不是没有——Claude背后的强化学习积累、全球开发者生态、企业级应用的打磨深度,这些都是时间堆出来的。但至少现在不一样了:以前是别人定标准我们跟,现在别人发模型我们当天就能跑。这变化,可不是一点半点。

打开网易新闻 查看精彩图片

接下来三个月,谁能在吞吐量、时延、显存占用这三个维度给出最优解,谁就能在Agent算力市场占住位置——这场仗,才刚刚开始。现在很多企业都在找性价比高的国产方案,要是国产组合能持续优化,说不定真能在全球市场分一杯羹。谁能笑到最后?咱们拭目以待。

参考资料:科技日报 国产GPU适配大模型的生态突破