AI数据中心每年烧掉的电费,够一个中等国家用。内存是耗电大户,但没人敢动HBM——直到软银说:我来。

这不是PPT。软银子公司SAIMEMORY刚拿到日本NEDO的政府补贴,项目名"ZAM内存",目标直指AI训练推理的功耗痛点。英特尔提供底层技术,RIKEN做系统验证,三方凑齐了一条从实验室到产线的链条。

打开网易新闻 查看精彩图片

一张图看懂:ZAM到底改了什么

要理解ZAM的野心,得先看HBM的物理困境。

现有高带宽内存(HBM)把DRAM芯片像三明治一样水平堆叠,用硅通孔(TSV)打穿上下层传输数据。堆得越高,TSV越长,信号延迟和功耗越大。更麻烦的是散热——水平叠片像一摞煎饼,中间的热量散不出来。

ZAM的解法很直接:把芯片立起来。

垂直方向堆叠,芯片边缘朝外,像书脊朝外摆的书架。这种"Z-Angle"结构让数据走横向短路径,TSV长度砍到原来的几分之一。散热面直接暴露,风冷就能压住。官方说法是"功耗显著低于HBM",具体数字没公布,但物理结构的优势是明摆着的。

这个思路不是软银原创。美国能源部资助的早期研究、英特尔内部的DRAM堆叠和键合技术,才是ZAM的地基。软银2024年成立SAIMEMORY,本质是把这些分散的技术资产串成商业链条——从做AI应用的公司,变成造AI基础设施的公司。

为什么是日本政府掏钱

NEDO的补贴项目叫"后5G基础设施强化研发",ZAM被选中纳入。这笔钱可能覆盖"开发成本的很大一部分",措辞很活,但态度明确:日本要把AI内存的供应链攥在自己手里。

这个算盘不难懂。HBM市场现在被SK海力士、三星、美光三家吃干抹净,英伟达的GPU绑着这三家的内存卖。日本曾经统治过DRAM时代,现在连汤都喝不上。ZAM如果跑通,日本能跳过现有专利墙,在AI内存的新赛道插一脚。

软银的角色更微妙。孙正义这些年ALL IN AI,从ARM到OpenAI到自家AI芯片,但始终缺一块硬骨头——内存。买别人的HBM,贵且没议价权;自己造,技术门槛高到离谱。ZAM是条捷径:用美国技术打底,日本资金护航,英特尔当苦力,软银摘果子。

英特尔图什么?

晶圆代工业务被台积电按在地上摩擦,先进封装成了最后的差异化筹码。ZAM需要的DRAM堆叠、混合键合、硅桥技术,恰恰是英特尔IDM 2.0的核心资产。帮软银造内存,等于给自己的封装技术找商业化出口——哪怕客户是潜在竞争对手。

技术路线之争:ZAM能活到量产吗

垂直内存的概念不新鲜。NEO Semi的3D X-DRAM、Fujitsu和Rapidus合作的1.4nm AI芯片,都在打"绕过HBM"的主意。但概念到量产隔着生死线:良率、成本、生态。

HBM的护城河不只是技术,是英伟达CUDA生态的锁定。GPU和内存的协同优化做了十几年,新内存就算性能更好,换适配成本足以劝退大厂。ZAM如果只想做"省电版HBM",目标客户是功耗敏感的中低端训练场景,还是推理为主的边缘部署?原文没说,但这个选择决定生死。

另一个悬念是制造归属。ZAM的DRAM芯片谁来造?英特尔没有DRAM产线,软银更没有。找三星或SK海力士代工,等于把命脉交回对手手里;拉日本本土的Kioxia(铠侠)入伙,技术代差又摆在那里。RIKEN的系统集成能力能补多少课,是未知数。

补贴到账只是发令枪。NEDO的钱有项目节点,ZAM得在规定时间内掏出可验证的工程样品。2024年成立的SAIMEMORY,2025年初曝光合作,现在拿到政府背书——节奏很快,但半导体行业的"快"往往是催命符。

一个观察:软银的"上游焦虑"

孙正义的投资版图有个明显转向:从应用层往基础设施层钻。ARM是IP层,现在是AI芯片设计的事实标准;这次的ZAM是内存层,再往下就是晶圆厂了。这种"垂直整合"的野心,和马斯克搞SpaceX自己造火箭发动机一个逻辑——核心部件受制于人,规模上去就是待宰的羔羊。

但半导体不是互联网。软件可以敏捷迭代,流片一次几千万美元打水漂连响都听不见。软银的AI赌局里,ZAM是风险最高的一注:技术未经验证,对手是垄断巨头,盟友各怀鬼胎。

英特尔的技术+日本的钱+软银的野心,这个组合能打破HBM的铁幕吗?还是说,ZAM会成为又一个"技术正确、商业失败"的标本?