HBM 只负责“快”,可模型越来越“能吃”,总得有人把“多”补上——华为把答案押在一块即将亮相的 AI SSD 上,时间定在 8 月 27 日。

打开网易新闻 查看精彩图片

先把背景摊开。

近两年算力卡一路狂飙,GPU 边上的 HBM 通过 3D 堆叠和超宽总线把带宽拉满,但代价是容量受限:显存够快却不够装。

大模型训练要囤参数、样本与检查点(checkpoint),推理要缓存 KV、调用向量库;“内存/显存放不下”成为常态。结果是数据反复在慢介质里搬家,带宽再高也被往返时延稀释。

这回华为要做的,是在 HBM/DRAM 之下铺一层高性能容量层:AI SSD。它不跟 HBM 抢“第一毫秒”,而是把训练喂数、参数快照、推理向量检索这类“又多又勤”的活接住——容量大、并发强、延迟可控、总拥有成本(TCO)更友好。分层协同后,快的继续快,多的更能装,数据流不再被单点掐脖子。

图源:财联社

打开网易新闻 查看精彩图片

发布会上我会盯七个点:

第一,看 总线与协议,是 PCIe 5 还是更激进的 6,NVMe 2.x 是否就绪,是否给出面向 CXL 生态的对接思路;

第二,看 性能曲线,顺序/随机吞吐与 IOPS 之外,更关键是时延抖动与 QoS 稳定性;

第三,看 容量档位与阵列扩展,单盘 TB 级到多盘的线性放大做得如何;

第四,看 耐久与功耗,DWPD 指标和实时功耗曲线是否对 AI 负载做过优化;

第五,数据可靠性,端到端保护、掉电保护、纠删码/RAID 的落地细节;

第六,软件栈,有没有分层存储中间件、数据管道加速、向量检索插件这类“能即插即用的工具”;

第七,安全与合规,国密、全盘加密、可信启动该给的别少。只有“盘+栈”一起交付,AI SSD 才不是换个名字的企业盘。

打开网易新闻 查看精彩图片

更现实的一环,是和整机/一体机厂商的联动。

单卖硬件解决不了数据路径,得把“GPU 算力 + 存储容量 + 数据软件”绑成一套。国内产业链已经有 NAND、控制器、固件、OS 的土壤,华为入场的意义,不只是“有盘可用”,而是把“有卡无盘、有盘无栈”的断点补齐,让交付回到工程可控。

海外对手也没闲着。铠侠已经把“AI 驱动的存储创新”写进中长期策略,美光面向 AI 推出多款 SSD,明确标注“推理与混合负载”。

这说明行业共识很清晰:AI 不是靠一块通用企业盘打天下,工作负载感知才是门槛。华为切进来,国内玩家在性能—容量—成本这只三角里,终于多了一种组合。

打开网易新闻 查看精彩图片

把镜头再拉远些。中国算力大会上,华为存储线提到的三件事——城市层面的全域数据汇聚、行业层面的高质量语料、企业层面的 AI 数据湖——其实是同一条主线:从“堆算力”转向“强数据”。

AI SSD 是这条路的地基之一:数据汇聚、清洗、标注、训练、推理、归档,每一段都离不开稳定的大容量与确定的时延。

打开网易新闻 查看精彩图片

在“动辄几个小时的数据预热变成几十分钟”,在“半夜盯 checkpoint 不再心惊胆战”,在“向量库回查稳定到你敢在线上开新特性”。

工具的意义,从来不是规格华丽,而是让工程师少熬一杯咖啡、让业务敢压一条时间线。

最后,给准备观望的朋友一张小抄:关心训练的,盯 顺序吞吐、checkpoint 写入稳定性;

做推理服务的,看 随机读时延、向量检索插件与 QoS;

算力规划的,算一算 “HBM + AI SSD” 的 TCO 曲线,是否比“无脑加卡”更划算。

等到 8 月 27 日现场把曲线与软件清单摊开,我们再来对账:HBM 管“快”、AI SSD 管“多”的分工,是否真的把大模型的“胃口”喂饱了。

文章参考:

打开网易新闻 查看精彩图片