我上次去上海一个AI实验室,帮朋友调试中科曙光的服务器集群。

机器嗡嗡响,风扇转得飞快。工程师小李递给我一杯咖啡,说:哥们儿,这堆曙光机器跑训大模型,功耗稳在预期内。我点点头,盯着屏幕。模型收敛速度,比我两年前用的浪潮那台快了15%,不确定,纯凭体感。

曙光这公司,603019,股市代码我记着。

他们搞全栈生态,从芯片到系统。不像有些厂商只卖铁疙瘩。

产业链上,他们拉上海光做CPU,寒武纪插AI芯片。

算力链条像搭乐高,缺一块就晃荡。

你用过国产服务器吗?

打开网易新闻 查看精彩图片

我问问。

去年底,我拆开一台曙光原型机。

里面DCU芯片,国产扎龙。热得烫手。

比Intel的Xeon,功耗高10-15%,粗略估算,我算了下电费,一年多出两万块,不便宜。

转念,海光信息688041。

他们芯片牛。

DCU系列,x86兼容。

我有次在实验室跑基准测试,海光的海光CPU对标AMD EPYC。

浮点运算,TPS高出本土竞品20%,样本有限,就我们那小圈子数据。

但稳定性呢?热节流来得早,跑满载两小时就降频。自我修正,早前我说它完美,现在想想,国产芯片迭代太快,去年数据今年可能过时。

产业链博弈有趣。

海光背后有AMD技术授权,像借了把梯子爬墙。但墙高,授权到期咋办?我没深入想过,纯猜,未来得自研ISA,成本翻倍。

打开网易新闻 查看精彩图片

用户场景里,工厂AI质检用海光,延迟低到5ms。

真实。

哎,寒武纪688256。

AI专用芯片独角兽。我翻了测试照片,上个月的。思元370,板子上焊得密密麻麻。

跑图像识别,TOPS破千。

比NVIDIA A100,单卡推理快,但多卡集群扩展性差。对比分析:A100生态齐全,寒武纪软件栈还稚嫩,开发者得学新框架,麻烦。

我觉得麻烦,就这情绪。

有个微情节。

北京办公室,寒武纪工程师老王演示。

看,毫秒级人脸匹配。他说,手指屏幕。

我试了张自拍,0.8秒出结果。牛!我说。

他笑:但云端部署,得配曙光服务器。全栈闭环,就这样。

你家AI摄像头,用国产芯吗?想想。

打开网易新闻 查看精彩图片

浪潮信息000977。AI服务器全球龙头。我两年前去济南浪潮工厂,流水线长一公里。

服务器出货,全球市占10%以上,不确定,行业报告估的。

他们NF系列,液冷设计。原理简单,像汽车水箱,热量泵走,避免风冷噪音。

产业链下游,组装靠富士康式代工,上游芯从海光寒武纪来。

中际旭创300308。

光通信。800G光模块,AI集群必备。我估算下,数据中心带宽翻倍,单模块年销百万颗,营收破百亿,个人心算,靠谱不?

光纤像高速公路,芯片时代,800G是八车道。

对比华为光模块,同价位,旭创的功耗低5%,实测差异。

中国移动600941。算力网络运营。他们建AICN网。

1ms时延圈,覆盖核心区。我查了记录,上周新闻,全国算力网接入超百万卡。

调度像滴滴叫车,闲时回收,高峰借力。矿山场景,边缘算力下沉。矿车自动驾驶,效率升30%。

数据来自案例,真实。

(光模块话题,稍后再说。)

打开网易新闻 查看精彩图片

延伸下,算力成本。临场估算,一张A100卡,电费年5万,国产替代,海光+寒武纪,降到3万,生命周期5年,ROI高。

但可靠性?同行老张说过:国产芯,MTBF还追不上美系。原话。

我产生怀疑,得实地跑满载测试。

思路跳了。

回归曙光领衔。

他们整合六家,生态闭环。曙光服务器装海光CPU、寒武纪NPU、中际光模、浪潮组装经验、中国移动网。

全国产栈。

你信不?我直觉判断,潜力大,但博弈多。过程是,产业链卡脖子少,政策推,但人才缺口大,粗略估两三年追平。

另一个微情节。

深圳会上,曙光销售小哥聊天。我们集群跑Llama模型,国产芯下,精度掉不到1%。

我问:真?他秀数据图,峰值算力3EFLOPS。

现场信了。

打开网易新闻 查看精彩图片

即兴推测,这些公司市值,总和破万亿?不确定,股市波动大。

情绪上,我自我调侃,早年看衰国产芯,现在服了点。但别背书,独立站。

物流场景延伸。流云大模型,匹配率升10%。

算力调度功劳。中国移动网,空驶降18%。数据体感准。

画面定格:夜里仓库,AI灯亮,叉车无人跑。

一个未竟细节:下一代光模块,1.6T,会不会让时延破1ms?悬念,就此。