来源:市场资讯

(来源:芯在说)

AI芯片战争的幕后:GTC 2026存储三强亮剑,谁在重塑AI基础设施?

当算力成为显学,存储和内存才是真正卡脖子的地方。GTC 2026上,Micron、Kioxia、Phison三家企业同台亮相,用一场"地基革命"告诉市场:没有高性能存储,再强的GPU也是空转。

聚焦

本文核心信息一览: Micron HBM4量产 + PCIe 6.0 SSD量产 + SOCAMM2量产,三线同时落地; Kioxia推AiSAQ技术 + 245.76TB超大容量SSD; Phison的aiDAPTIV用闪存扩展AI工作内存,绕开"加GPU"的老路。

Micron:三线并进,悄悄卡住AI硬件的命脉

Micron在这次GTC上的动作最为密集,一口气宣布三条产品线同时进入量产阶段。

HBM4:带宽翻倍,专为Nvidia Vera Rubin定制

打开网易新闻 查看精彩图片

指标

HBM3E(上代)

HBM4 36GB 12H(新)

提升幅度

带宽

约1.2TB/s

>2.8TB/s

+133%

pin速度

>11 Gb/s

功耗效率

基准

提升20%

更省电

容量

36GB

36GB(12H)

持平

这款HBM4已于2026年第一季度开始量产出货,专为Nvidia Vera Rubin平台设计。更值得关注的是,Micron还向客户发出了HBM4 48GB 16H的样品——16层堆叠,比12H版本单次封装容量提升33%,这代表着下一个容量台阶的技术储备已经就绪。

洞察

HBM4的意义不只是"更快的内存"。它代表计算和内存开始"联合设计"——Micron与Nvidia从第一天起就共同工程化,而不是各自跑完再拼接。这种深度绑定,正是英特尔当年错失的机会。

PCIe 6.0 SSD:Micron 9650,全球率先量产

Micron于2026年2月12日宣布Micron 9650 SSD进入量产,成为全球首家量产PCIe 6.0数据中心SSD的企业(据Forward Insights分析报告,前五大OEM数据中心SSD供应商中,其余厂商彼时均未宣布量产)。

打开网易新闻 查看精彩图片

指标

PCIe 5.0(上代)

Micron 9650(PCIe 6.0)

顺序读取速度

约14GB/s

最高28GB/s

随机读取IOPS

550万

性能/瓦特

基准

提升100%

优化场景

通用数据中心

Agentic AI推理 + 液冷环境

配合Nvidia BlueField-4 STX架构,9650专为主动式AI推理工作负载(Agentic AI)调优,这不是泛泛的"更快SSD",而是面向具体工作场景的定向优化。

SOCAMM2:192GB量产,为Vera Rubin NVL72造底

Micron SOCAMM2已进入量产,192GB版本面向Nvidia Vera Rubin NVL72系统及独立Vera CPU平台,整体产品系列覆盖48GB到256GB容量区间。单CPU最高支持2TB内存容量和1.2TB/s带宽。

打开网易新闻 查看精彩图片

⚠️ 警示

这三条产品线同时量产,意味着Micron已经把"AI内存基础设施"作为一个整体系统来交付,而非单点突破。竞争对手若仍在单品上追赶,格局已经不同了。

Kioxia:用AiSAQ技术重新定义向量数据库的存储边界

Kioxia在GTC的展示逻辑更偏向"算法+硬件"协同,核心是AiSAQ技术——通过CM9系列企业NVMe SSD优化向量数据库的内存占用,同时提升可扩展性。

技术聚焦

AiSAQ的核心逻辑: 向量数据库在AI检索增强生成(RAG)场景下,内存消耗极大。AiSAQ将部分向量索引卸载到高速NVMe SSD,降低对昂贵DRAM的依赖,同时保持GPU加速检索性能。这是一种"降本不降速"的工程取舍。

本次还展示了245.76TB LC9系列企业NVMe SSD,主打大数据集的快速检索,这个容量数字在单盘维度已属顶级。此外,Kioxia还带来了能模拟超过1亿次IO的SSD仿真器,针对SCADA等极高强度场景的压力测试环境。

打开网易新闻 查看精彩图片

3月18日(今天)下午4点,Kioxia高级院士Rory Bolt将在展馆剧场发表《重新定义向量数据库管理:大规模扩展与GPU加速索引的统一》主题演讲,值得关注向量数据库架构的从业者重点跟进。

Phison:aiDAPTIV——不加GPU,也能跑更大的模型

Phison的切入点最为"反直觉":既然GPU显存贵、稀缺,那就把闪存变成AI工作内存的延伸。

aiDAPTIV技术通过Pascari SSD构建多层内存架构(GPU显存→系统RAM→闪存),智能调度AI推理和微调过程中的工作负载,让原本超出硬件容量的大模型得以在本地运行。

原话值得记住

"传统内存管理从来不是为AI设计的,今天的AI基础设施也不能再依赖通用内存管理。" —— Phison美国总裁兼总经理 Michael Wu

场景

传统方案

aiDAPTIV方案

大模型本地推理

升级GPU/加显存

用高耐久闪存扩展内存层

长上下文推理

受限于显存容量

KV cache卸载至SSD

大规模微调

需要多卡环境

本地单机支持

数据隐私

上云存在风险

全程本地,不出设备

本次GTC展示的合作伙伴设备涵盖:搭载Nvidia GB10 Grace Blackwell处理器的笔记本和工作站,以及Nvidia GeForce RTX 50系列和Nvidia RTX PRO 6000 Blackwell Max-Q工作站版GPU。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

✅ 跳出框架的思考

Phison的aiDAPTIV其实在回答一个更大的问题:AI算力的民主化,不只是靠更便宜的GPU,而是靠更聪明的内存层次管理。闪存的价格曲线比DRAM和HBM平得多,如果aiDAPTIV这类技术成熟,边缘AI和本地AI的推理成本可能在2026-2027年出现一次实质性下降。这对企业自建AI基础设施的决策逻辑影响深远。

三家企业战略方向对比

维度

Micron

Kioxia

Phison

核心策略

三线量产,深度绑定Nvidia平台

算法+硬件协同,优化AI存储效率

多层内存架构,本地AI推理扩容

主打产品

HBM4、PCIe 6.0 SSD、SOCAMM2

CM9 SSD、LC9 245TB、AiSAQ

Pascari SSD + aiDAPTIV

目标场景

超大规模数据中心,Vera Rubin平台

向量数据库、大容量存储检索

本地AI、边缘AI、私有化部署

竞争优势

率先量产,平台深度集成

超大容量单盘,技术自研

绕开GPU限制,成本路径更优

记者观察

GTC每年都是Nvidia的主场秀,但2026年存储厂商的集体发力说明一件事:AI系统的竞争已经从"谁的GPU更快"演变为"谁的数据搬运更高效"。带宽、延迟、每瓦性能,这些过去属于存储工程师内部讨论的参数,正在变成决定AI系统ROI的关键财务变量。

存储,从来不是配角。只是大多数人以前没意识到。

数据来源:Micron、Kioxia、Phison官方新闻稿,2026年3月17日,StorageNewsletter.com整理