打开网易新闻 查看精彩图片

三星、SK海力士和美光正在加紧准备向英伟达和其他AI加速器供应商提供第四代高带宽内存(HBM4),以提升AI训练和推理速度。

高带宽内存是一种分层DRAM,直接放置在GPU旁边的桥接中介层芯片上,比与x86 CPU配套使用的插槽连接DRAM提供更大的内存容量和更高的内存带宽。HBM分为不同代次,专为特定GPU设计,每一代通常比前代提供更高的带宽和更大的容量。目前我们正处于HBM3E(扩展版)代次,专为英伟达Blackwell GPU设计,支持最多12层DRAM堆叠,提供36GB容量,每引脚9.2-9.8 Gbps数据传输速度,总带宽达1.2-1.28 TB/s。

HBM4专为英伟达Rubin GPU设计,可搭载高达288GB的HBM4内存。AMD的MI455可搭载更多内存,达432GB。JEDEC的HBM4标准支持4层、8层、12层和16层堆叠,芯片容量分别为24 Gb(3GB)或36 Gb(4GB)。每个堆叠的容量范围从12GB到64GB。HBM4基准每引脚数据传输速率为8 GB/s,支持扩展到更高水平。

英伟达去年首次发布Rubin时希望HBM4整体带宽达到13 TB/s,但现在的目标是从12层HBM4堆叠中实现22 TB/s。

这促使美光、三星和SK海力士等HBM4开发厂商测试其数据传输速率,三星不得不优化设计以在更高速度下实现良好的产量。路透社和《韩国日报》报道称,三星达到了新的速度要求,将于2月开始向英伟达出货HBM4芯片,同时也将向AMD供应HBM4芯片。

彭博社的报道有所不同,称三星接近获得英伟达认证,但尚未签署出货协议。

HBM市场领导者SK海力士已向英伟达交付HBM4样品,但尚未透露何时开始向GPU制造商出货HBM4芯片。该公司将于1月29日公布第四季度财报,三星也是如此,届时我们可能会听到更多消息。

第三家HBM4制造商美光也已向英伟达交付16层样品,并表示其2026年HBM4全部产能已售罄。

HBM5和HBM6代次可能分别采用20层和24层堆叠。

Q&A

Q1:HBM4相比HBM3E有什么提升?

A:HBM4专为英伟达Rubin GPU设计,支持最多16层堆叠,单堆叠容量可达64GB,基准每引脚数据传输速率为8 GB/s。英伟达目标从12层HBM4堆叠中实现22 TB/s带宽,远超HBM3E的1.2-1.28 TB/s。

Q2:哪些厂商在生产HBM4芯片?

A:目前三大厂商正在开发HBM4:三星、SK海力士和美光。三星据报将于2月开始向英伟达出货,SK海力士已交付样品但未透露出货时间,美光也已交付16层样品且2026年产能已售罄。

Q3:HBM4主要应用在哪些产品上?

A:HBM4主要用于AI加速器,包括英伟达Rubin GPU(可搭载288GB HBM4)和AMD MI455(可搭载432GB HBM4),用于提升AI训练和推理速度,比传统插槽连接DRAM提供更大容量和更高带宽。