打开网易新闻 查看精彩图片

解决DRAM供应问题有两条路径:技术创新或新建晶圆厂。

如今科技领域似乎一切都围绕AI展开,而事实也的确如此。在计算机内存市场,这一点体现得尤为明显。为AI数据中心中GPU及其他加速芯片提供支持的DRAM需求极其旺盛、利润空间巨大,导致原本用于其他领域的内存产能被分流,价格也随之暴涨。据 Counterpoint Research数据,本季度截至目前,DRAM 价格已上涨80%~90%。

头部AI硬件企业表示,其芯片供应已锁定至 2028 年,但这使得其他厂商,包括个人电脑制造商、消费电子厂商,以及所有需要临时存储海量数据的设备厂商,都不得不仓促应对内存供应紧缺与价格高企的局面。

电子行业为何会陷入这一困境?更重要的是,该如何走出困局?经济学家与内存领域专家表示,当前局面是DRAM行业周期性繁荣与衰退叠加前所未有的AI硬件基础设施建设浪潮共同导致的结果。除非AI行业出现重大崩盘,否则新增产能与新技术需要数年时间才能让供需重新回归平衡。即便到那时,内存价格也可能依然居高不下。

要理解这一事件的来龙去脉,就必须认识到造成供需剧烈波动的核心——高带宽内存(HBM)。

什么是HBM?

HBM是DRAM行业借助3D 芯片封装技术,试图突破摩尔定律放缓趋势的产物。每一颗HBM芯片由多达 12 片经过减薄处理的DRAM裸芯片(die)堆叠而成。每片裸芯片都包含被称为硅通孔(TSV)的垂直互联结构。这些裸芯片相互堆叠,并通过与硅通孔对应的微型焊球阵列连接。这座 “DRAM 塔”—— 厚度仅约 750 微米,与其说是塔,更像一座粗野主义风格的办公楼 —— 会进一步堆叠在基底裸芯片上,由基底芯片在内存裸芯片与处理器之间传输数据。

这项技术复杂的芯片会被安置在距离 GPU 或其他AI加速器约 1 毫米的范围内,并通过多达 2048 个微米级接口相连。HBM 芯片通常部署在处理器两侧,与 GPU 封装为一个整体。

与 GPU 如此紧密、高密度互联的设计初衷,是为了打破内存墙。所谓内存墙,指的是运行大语言模型所需的每秒 TB 级数据在传入 GPU 时,在能耗与延迟上存在的瓶颈。内存带宽是限制大语言模型运行速度的关键因素。

HBM 作为一项技术已存在十余年,DRAM 厂商也一直在持续提升其性能。

打开网易新闻 查看精彩图片

随着AI模型规模不断扩大,HBM 对 GPU 的重要性也与日俱增,但这也伴随着高昂成本。SemiAnalysis 估算,HBM 的成本通常是其他类型内存的三倍,占封装后 GPU 总成本的50% 及以上。

内存芯片短缺的根源

内存与存储行业观察人士普遍认为,DRAM 是一个周期性极强的行业,繁荣与萧条交替出现。存储与内存专家、Coughlin Associates 总裁托马斯・科格林解释称,新建一座晶圆厂成本高达 150 亿美元甚至更高,企业对扩产极为谨慎,通常只有在行业繁荣期才有足够资金投入。而一座工厂从建设到投产需要 18 个月甚至更久,这几乎注定新增产能会在需求爆发很久之后才落地,进而导致市场供过于求、价格下跌。

科格林表示,本轮周期的源头可以追溯至新冠疫情期间的芯片供应恐慌。为避免供应链中断,并支撑远程办公的快速普及,亚马逊、谷歌、微软等超大规模云服务商大肆囤积内存与存储芯片,推动价格上涨。

但到了 2022 年,供应链逐步恢复常态,数据中心扩张放缓,内存与存储价格暴跌。这一下行趋势持续至 2023 年,三星等头部存储大厂甚至减产 50%,以避免售价跌破生产成本。科格林指出,这是极为罕见且近乎孤注一掷的举措,因为企业通常需要满负荷运转才能收回投资。

2023 年末行业开始复苏后,“所有内存与存储企业都对再次扩产持极为谨慎的态度”,科格林称。“因此,2024 年全年及 2025 年大部分时间里,行业几乎没有对新增产能进行投资。”

打开网易新闻 查看精彩图片

AI数据中心的爆发式增长

投资不足与新兴数据中心的爆发式需求正面相撞。据 Data Center Map 统计,目前全球有近 2000 座新建数据中心处于规划或建设中。若全部建成,将在当前约9000座的全球总量基础上提升20%。

麦肯锡预测,如果现有建设节奏持续,到 2030 年相关企业总投资将达到7 万亿美元,其中5.2 万亿美元投向AI数据中心。该机构预计,其中 33 亿美元将用于服务器、数据存储与网络设备。

迄今为止,AI数据中心热潮最大的赢家无疑是 GPU 厂商英伟达。其数据中心业务营收从 2019 年第四季度的仅约 10 亿美元,飙升至 2025 年 10 月结束季度的510 亿美元。在此期间,其服务器 GPU 不仅对DRAM容量需求持续攀升,对DRAM芯片数量的要求也越来越高。英伟达最新推出的 B300 芯片使用 8 颗HBM芯片,每颗均由 12 层DRAM裸芯片堆叠而成。其竞争对手也基本效仿这一方案,例如 AMD 的 MI350 GPU 同样采用 8 颗 12 层堆叠的HBM芯片。

打开网易新闻 查看精彩图片

在旺盛需求下,DRAM 厂商营收中来自HBM的占比持续提升。在 SK海力士、三星之后排名第三的美光表示,HBM 及其他云端相关内存占其DRAM总营收的比例从 2023 年的 17% 升至 2025 年的近 50%。

美光首席执行官桑杰・梅赫罗特拉在 12 月对分析师表示,公司预计HBM整体市场规模将从 2025 年的 350 亿美元增长至 2028 年的 1000 亿美元。这一规模超过 2024 年全球DRAM市场总量,比美光此前预期提前两年实现。他称,在可预见的未来,全行业HBM需求将持续大幅超过供应。

打开网易新闻 查看精彩图片

DRAM未来供应与技术走向

Mkecon Insights 经济学家米娜・金解释:“解决DRAM供应问题有两条路径:技术创新或新建晶圆厂。随着DRAM制程微缩愈发困难,行业转向先进封装…… 而这本质上是使用更多DRAM芯片。”

美光、三星、SK海力士占据了内存与存储市场绝大部分份额,三家均在推进新厂建设,但这些产能很难对平抑价格起到显著作用。

美光正在新加坡建设一座HBM晶圆厂,计划 2027 年投产;同时改造从台湾力积电收购的厂房,将于 2027 年下半年量产。上月,美光在美国纽约州奥农达加县动工建设DRAM晶圆厂园区,2030 年才能全面投产。

三星计划 2028 年在韩国平泽新厂区投产。

SK海力士在美国印第安纳州西拉法叶市建设HBM与封装厂,预计 2028 年底投产;在韩国清州建设的HBM工厂将于 2027 年完工。

英特尔首席执行官陈立武在思科AI峰会上表示:“2028 年之前,DRAM 供应紧张局面难以缓解。”

由于新增产能数年之内无法形成有效供给,缓解供应压力还需要依靠其他因素。全球电子产业协会(原 IPC)首席经济学家肖恩・杜布拉瓦茨称:“供应缓解将来自几方面的共同作用:头部DRAM厂商逐步扩产、先进封装良率提升、供应链多元化程度提高。新建工厂会带来边际改善,但更快的提升来自工艺经验积累、更高效率的DRAM堆叠技术,以及内存供应商与AI芯片设计企业之间更紧密的协同。”

那么,新厂投产后价格会回落吗?答案或许是否定的。“总体而言,经济学家发现价格上涨快、下跌慢且不情愿。如今的DRAM市场也不太可能例外,尤其是在算力需求近乎无限的背景下。” 金表示。

与此同时,多项在研技术可能让HBM对硅片的消耗进一步增加。HBM4 标准最高可支持 16 层DRAM裸芯片堆叠,而当前主流产品仅为 12 层。实现 16 层堆叠很大程度上取决于芯片堆叠技术。如何在由硅、焊料和支撑材料构成的HBM“千层蛋糕” 中传导热量,是进一步提升堆叠层数、优化封装内布局以获得更高带宽的关键瓶颈。

SK海力士声称,其先进的大规模回流模塑底部填充(MRMUF)工艺在导热方面具备优势。更长远来看,被称为混合键合的替代芯片堆叠技术可将裸芯片间垂直距离降至近乎为零,从而改善散热。2024 年,三星研究人员已证明可通过混合键合实现 16 层堆叠,并表示 20 层堆叠也并非遥不可及。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。