来源:市场资讯

(来源:芯在说)

存储革命在路上:SanDisk HBF 量产推进,DDR5 零售价格暴跌背后的真相

两条看似独立的新闻,实则指向同一个问题:AI 推理时代的存储架构,正在被彻底重写。

一、SanDisk HBF:一座被忽视的桥梁,终于动工

聚焦

据韩国媒体2025年报道,SanDisk 已与材料、零部件及设备合作伙伴展开讨论,正式推进 HBF(High-Bandwidth Flash,高带宽闪存)试生产线的生态系统建设。试产线候选地极有可能落于日本,目标是在2026年下半年完成建设并投入运营,2027年实现商业化量产。

HBF 是什么?很多人第一反应是"又一个营销词汇"。但如果你真正理解当前 AI 推理系统的存储瓶颈,就会明白这件事的分量。

现有的 AI 推理架构,本质上是一个两极分化的存储金字塔:

  • HBM(高带宽内存)

    极致带宽,极致价格,极致稀缺。每GB成本高达数十美元,容量严重受限于封装面积。

  • NVMe SSD

    高容量,低成本,但带宽与 HBM 相差数个数量级。

两者之间,存在一道巨大的性能鸿沟。大模型推理时,权重数据需要从 SSD 频繁调入 HBM,这个搬运过程本身成了瓶颈。

HBF 的定位,就是这道鸿沟中间的那座桥。

存储层级

典型带宽

典型容量

典型功耗

适用场景

HBM(高带宽内存

1–3 TB/s

24–96 GB/颗

极高

模型激活层、KV Cache

HBF(高带宽闪存)中等TB级中等权重卸载、推理扩展

NVMe SSD(PCIe 5.0)

~14 GB/s

4–32 TB

冷数据、检索库

HDD

~250 MB/s

数十 TB

极低

归档、冷存储

SanDisk 的 HBF 技术依托其自研的 BiCS 堆叠式 NAND 技术和 CBA(CMOS Bonded to Array)晶圆键合工艺,通过让 CMOS 逻辑层与 NAND 阵列层直接键合,大幅缩短内部数据路径,从而在保留 NAND 高密度优势的同时,将带宽提升到传统 SSD 难以企及的水平。

⚠️ 警示

这不是一个可以轻松跟进的技术方向。BiCS + CBA 的技术壁垒极高,铠侠(Kioxia)在 NAND 堆叠领域深耕多年,而 SanDisk 背靠西部数据的制造体系,两者的合作关系让 HBF 的产业化路径相对清晰。竞争对手若要复制,至少需要三到五年的工艺积累。

时间线:从试产到规模化

2026年下半年 — 试产线建成,首批 HBF 样品对外发放,用于合作伙伴系统集成测试。

2027年初 — 首批搭载 HBF 的 AI 推理设备样品上市,进入整机厂和云计算厂商的验证阶段。

2030年及以后 — 业界预期,以 HBF 为核心组件的集成存储解决方案将进入全面市场扩张阶段。

这个节奏并不激进,甚至可以说是谨慎的。但"谨慎"在这里是褒义词——HBF 要替代的是整个 AI 服务器的存储架构,任何一个环节出问题都会影响整机厂的采购决策。SanDisk 宁可慢一步稳一步,也不愿在系统验证阶段翻车。

洞察

AI 推理的核心矛盾是:模型参数规模以指数增长,但 HBM 的容量受制于封装物理极限,增长线性且缓慢。HBF 提供的不仅是一个新的存储层级,而是让"大模型"真正能够以合理成本部署在推理端的基础条件。没有 HBF 或类似技术,"百亿参数模型本地推理"将永远是 PPT。

为什么是日本?

候选地点落在日本,绝非偶然。日本拥有完整的半导体材料产业链,铠侠(Kioxia)的四日市、北上工厂基础设施成熟,且日本政府近年来持续以补贴形式拉拢半导体制造回流。SanDisk 与铠侠的历史合作关系,也让日本成为最顺理成章的选择。

二、DDR5 价格暴跌:零售端的恐慌,掩盖了企业端的平静

警示

根据 TrendForce 2025年3月数据,DDR5 零售市场价格出现大幅下滑:德国市场环比下跌约7.2%,为8个月来首次下跌;美国精选 DDR5 套装环比下跌20%以上;中国大陆线上平台16GB DDR5-5600/6000产品环比下跌25–30%;华强北现货市场 DDR5 现货价格环比下跌17–35%。

标题写的是"暴跌",但如果你只读零售端数据,就会错过整个故事最重要的部分。

跌的是什么?

市场层级

产品

价格变动(2025年3月)

德国零售

DDR5通用条

环比 ↓ 7.2%

8个月首次下跌

美国零售

精选 DDR5套装

环比 ↓ 20%+

消费级产品为主

中国大陆线上

16GB DDR5-5600/6000

环比 ↓ 25–30%

电商平台

华强北现货

DDR5各规格

环比 ↓ 17–35%

现货波动最剧烈

原厂合约价服务器 RDIMM/LRDIMM基本持平AI/云端需求支撑

这张表的关键在最后一行。

零售端和现货端的暴跌,本质上反映的是消费级市场的几个结构性压力:

消费需求软化:经历了2024年 AI 概念驱动的内存涨价周期后,消费者和下游渠道商在高价位区间的购买意愿显著下降。这是典型的"价格超过了消费者的支付意愿"场景。

渠道库存消化加速:下游经销商在价格高位时进了货,现在在想方设法清仓,宁愿以较低价格出售,也不愿承担继续持仓的风险。

中国大陆新产能逐步释放:长鑫存储(CXMT)等国内 DRAM 厂商持续扩产,部分产品已进入消费市场,增量供给对零售端价格形成压制。

Google TurboQuant 潜在下行风险:市场对 Google 部分 AI 硬件项目需求前景存在不确定性,情绪面对现货价格有所拖累。

✅ 洞察

原厂合约价为何岿然不动?因为 AI 数据中心的服务器内存采购,走的是多年框架协议,不随现货价格波动。三星、SK 海力士、美光的大客户——微软 Azure、谷歌 GCP、亚马逊 AWS、Meta——签的都是长期锁量协议,价格早已谈定。现货市场的暴跌,对这些大厂的实际营收影响极为有限。

HBM 与服务器 DRAM:需求端的另一个世界

如果说消费级 DDR5 的价格是"市场温度计",那 HBM 和服务器 DRAM 就是"另一个气候带"。

AI 训练和推理对 HBM 的需求,完全不受消费级市场周期影响。英伟达 H100/H200/B200 系列 GPU 每颗搭载 80–192GB HBM,每张卡的 HBM 成本占整卡 BOM 的比例超过30%,而 AI 算力的需求增速并未放缓。

服务器侧的 DDR5 RDIMM,同样受益于 AI 推理服务器的大规模部署。推理集群需要大量 CPU 内存来处理请求调度、KV Cache 管理和模型上下文,对高容量 RDIMM 的需求持续旺盛。

DDR4 的减产同样在支撑价格底部。主要厂商正在将产能向 DDR5 和 HBM 倾斜,DDR4 的供给收缩为整体内存市场提供了价格地板。

核心判断

这轮 DDR5 零售价格调整,本质是消费级市场对此前过度涨价的修正,而非整个内存市场周期反转的信号。区分"消费级现货价"与"企业级合约价",是理解当前内存市场最关键的分析框架。混淆两者,会做出错误的行业判断。

三、两条新闻的交叉点:AI 推理架构的存储重构

宏观视角

HBF 的出现与 DDR5 的价格分化,看似两件独立的事,其实都是同一个底层逻辑的外在表现:AI 推理的规模化部署,正在倒逼整个存储层次体系重新定价和重新设计。

传统数据中心的存储架构,是按照"在线数据库+冷热分级"设计的,并没有为"数百亿参数的神经网络权重需要被高频调用"这个场景做优化。

AI 时代的存储需求,有几个传统架构完全没有预料到的特点:

超大规模顺序读取:推理时加载模型权重,本质上是超大文件的顺序读,对带宽要求极高,对随机 IOPS 要求反而不高。

重复性极强:同一批权重会被反复调用,具有很强的局部性,非常适合分级缓存架构。

对延迟的容忍差异巨大:激活层必须在 HBM 里,权重可以在稍慢一点的存储层,但"稍慢"的上限也远超传统 SSD 的带宽天花板。

HBF 精准命中了第三点。它不是要替代 HBM(那不现实),而是成为 HBM 的"后备粮仓"——当模型权重无法全部塞入 HBM 时,HBF 提供足够快的带宽让权重"按需调入",同时保持远比 HBM 更低的成本和更高的密度。

这个逻辑,和 CPU 与 L3 缓存的关系有几分相似,但规模要大得多,经济账也要复杂得多。

四、跳出框架:那些没人说但值得想的事

跳出框架

以下是几个当前主流报道不常触及,但值得深度思考的角度。

HBF 会不会成为新的"英特尔陷阱"?

上世纪90年代,英特尔通过将 CPU 与内存总线标准牢牢掌握在自己手中,建立起难以撼动的生态壁垒。SanDisk 的 HBF 若能成为 AI 推理服务器的标准存储层,并将接口协议、驱动栈、与 HBM 的协同协议全部私有化,就有可能在 AI 硬件栈中复制类似的护城河。

目前尚未有任何公开信息显示 HBF 的接口标准会走开放路线(如 CXL 或 NVMe 扩展),这是一个值得持续追踪的变量。

DDR5 价格下跌,会不会反过来加速 AI PC 的普及?

消费级 DDR5 价格回落至更合理区间,叠加英特尔 Lunar Lake 和 AMD Strix Point 等支持内存侧 AI 加速的平台快速渗透,内存成本下降有助于 AI PC 的实际出货。但这里有一个悖论:AI PC 的"AI 推理"场景,对内存带宽的要求远超容量,而 LPDDR5X 的带宽上限仍然是瓶颈,降价解决不了带宽问题。

2030年"全面市场扩张"的时间点,是预测还是承诺?

HBF 商业化路径给出的"2030年"节点,意味着从现在到规模部署,还有近五年的窗口期。在这五年里,英伟达不会停止迭代,CXL 内存扩展也在快速演进,AMD 和英特尔的 AI 加速器路线图同样在推进。HBF 若不能在2027年的设备样品阶段就展现出足够有说服力的性能与成本数据,2030年的"扩张"就可能变成"推迟"。时间窗口并不宽裕。

五、关键数据速查