打开网易新闻 查看精彩图片

存储芯片巨头大战下,HBM还在进化,而新型内存HBF(High Bandwidth Flash,高带宽闪存)也加快了商业化进程。

近日,SK海力士与闪迪联合举办“HBF规格标准化联盟启动”活动,宣布在开放计算项目(OCP)框架下成立专属工作组,推进HBF的全球标准化。

消息传出后,闪迪盘前股价拉升5%,足以看出市场对该技术的高度期待。

什么是HBF?这并非全新概念,其源于AI产业从训练向规模化推理的转型。

作为“AI推理时代存储缺口解决方案”的核心技术,HBF的标准化启动,标志着下一代存储架构竞争进入实质阶段。

随着多模态大模型普及,AI服务并发量激增,现有存储架构陷入明显瓶颈:HBM带宽优异但容量有限、成本高昂,单堆栈仅数十GB;而TB级的SSD虽容量充足,却读写偏慢,无法适配AI推理的实时性需求。

正是为了解决现有内存技术的问题,催生了HBF技术,其核心定位就是填补两者间的存储空白,打造兼具高带宽、大容量与高性价比的专属解决方案。

要理解HBF的核心优势,需从其技术本质入手。

根据官方的介绍,HBF是经架构重构与封装优化的新型存储半导体,借鉴HBM成熟的3D堆叠技术,将存储介质替换为NAND闪存,通过硅通孔(TSV)技术实现高速数据传输,既完整保留NAND闪存高容量、低成本的优势,又具备接近HBM的带宽表现。

其采用CMOS直接键合到阵列(CBA)设计,打破传统NAND的固有限制,实现独立访问的存储器子阵列,大幅提升数据并行访问能力。数据显示,单堆栈HBF容量可达512GB,8个堆栈可实现4TB,足以高效支撑大模型参数的高速读取需求。

不过,HBF的出现并非要取代HBM,反而是要与之协同构建高效AI存储架构。

在全新的AI存储架构下,HBM将负责延迟敏感型任务,而HBF会接替HBM专注于大容量顺序读取的工作,例如模型参数读取。

两者分工协作、优势互补,精准满足AI推理的性能与功耗双重需求,SK海力士推出的“H3混合架构”就是用来验证这一逻辑。

该架构将HBM与HBF并列部署于GPU周边,仿真测试显示,其每瓦性能较纯HBM方案最高提升2.69倍,在1000万token 场景下,并发查询量提升18.8倍,GPU使用量大幅减少。

打开网易新闻 查看精彩图片

正是看到HBF在AI推理场景中的巨大潜力,全球存储巨头纷纷加码布局。

其中,SK海力士作为HBM领域龙头,拥有成熟的堆叠与封装技术;闪迪则是HBF概念的提出者和商业化先行者,两者联手推进标准化,形成了技术与市场的双向互补。另外,三星电子也已加入这一阵营,未来三大巨头共同推动HBF标准化从双边合作走向广泛的产业协同。

而OCP作为全球知名的开放数据中心技术组织,为其提供了重要平台支撑,专属工作组的成立,将加速HBF技术规范的完善,为其规模化商业化落地扫清障碍。

“HBM之父”Kim Joungho表示,三星与闪迪计划在2027年底至2028年初,将HBF技术集成至英伟达、AMD、谷歌的相关产品中;闪迪也明确预测,首批HBF产品将于2026年下半年出样,搭载HBF的AI推理设备则将于2027年初出样。业界普遍预计,HBF的市场需求将于2030年进入快速增长通道,2038年市场规模有望超越HBM,其核心驱动力正是AI推理场景的持续扩张,其高容量、高带宽、低成本的特性,可精准适配数据中心、自动驾驶等多领域需求。

不过,尽管HBF商业化前景广阔,但依然没有跳脱NAND闪存本身写入速度偏慢的固有短板,在缓存动态更新场景中可能影响用户体验。

SK海力士也坦言,需通过设计优化、提升基础芯片性能来突破这一限制。此外,HBF与现有GPU架构的兼容性、封装复杂度及设备散热等问题,仍需整个行业协同攻关解决。但总体而言,HBF仍是AI产业倒逼存储技术创新的必然结果。

记得星标微信公众号:镁客网(im2maker),更多干货在等你