从手机电脑,到科研计算,再到大型数据中心,一场围绕内存芯片的竞争正在发生。
撰文|寂寞帅猫
涨价的内存
市场研究机构 Counterpoint 的数据显示,2026年第一季度全球内存价格相比2025年第四季度上涨了80%-90%。在服务器市场,一些容量为*64GB的内存模块价格已经从约450美元上涨到900美元以上,而且还在继续上涨。[1]
(* 非我们日常所用的内存卡,而是服务器用内存条RDIMM)
这种情况在科技媒体中甚至有了一个略带夸张的名字——“RAMmageddon”(内存末日),意指一场由内存短缺引发的技术危机。[2]
内存(Random Access Memory,RAM)是一种非常基础的芯片,可以理解为计算机的短期记忆。程序运行时需要的数据会被暂时放在这里,这样处理器可以随时读取。如果没有内存,计算机就必须不停地从硬盘中调取数据,速度会慢得多。
很长一段时间里,内存芯片都算不上半导体行业最耀眼的产品。需求稳定,利润也相对有限。
坏景不长。人工智能的出现改变了这一点。
训练和运行AI模型时,系统需要不断读取和处理大量数据。数据在处理器和内存之间来回传输,对内存容量和带宽的要求突然变得非常高。
英伟达公司首席执行官黄仁勋(Jensen Huang)曾表示,内存对于AI的发展至关重要。美国东北大学电气与计算机工程教授 Matteo Rinaldi 也举过一个形象的例子:一台AI服务器使用的高级内存,可能相当于几十甚至上百台普通笔记本电脑的总和。因此,如果一家科技公司一次部署成千上万台这样的服务器,对内存的需求就会迅速放大。[3,4]
数据中心的扩张
这种需求的爆发,很大程度上来自AI数据中心的建设。
国际能源署(IEA)的一份报告显示,2024年全球数据中心消耗约415太瓦时(TWh)电力,占全球电力消费的约1.5%。到2030年,这一数字预计将增长到945太瓦时,接近日本目前一整年的用电量。[5]
这些数据中心并不只运行AI,但AI已经成为增长最快的部分。2024年,AI服务器大约占数据中心总用电量的15%。
与此同时,大型科技公司正在持续建设新的算力设施。黄仁勋曾估计,到2030年前后,全球用于AI基础设施的投资可能达到3万亿至4万亿美元。在这种预期下,微软、谷歌、亚马逊和Meta等公司都在加速建设新的数据中心。仅2026年,几家大型云计算公司的资本支出总额预计就接近 7000亿美元,其中相当一部分用于AI相关的算力和数据中心建设。[6]
训练大型模型、运行AI服务,都需要持续处理海量数据。很多工程师逐渐发现,在这些系统里,限制性能的往往不再是处理器,而是内存带宽。Rinaldi把这个变化总结得很简单:“AI工作负载需要持续不断地处理海量数据,计算能力的限制因素不再是处理器,而是内存和数据管理。” [4]
需求快速增长的同时,供应端也在调整。全球内存芯片行业的集中度非常高,放眼望去,目前最大的三家厂商——三星电子、SK海力士和美光科技,占据了全球约93%的市场份额。[7]
过去,这些公司主要为手机、电脑等消费电子产品生产传统内存,例如DRAM。但随着AI产业兴起,厂商正在把更多产能转向一种更高端的产品:高带宽内存(HBM)。
HBM专门用于高性能计算和人工智能,可以以更高速度向处理器传输数据。不过,它的制造难度更高,产量也更有限。当厂商把生产重点转向HBM时,普通内存的供应自然会减少 [3,4]。于是,从数据中心到普通电脑,内存价格都在上涨。
与此同时,AI服务器对内存的需求规模却在迅速扩大。一台大型AI服务器往往需要配置数百GB甚至TB级别的高性能内存。当大型云计算公司一次部署上万台服务器时,它们几乎会消耗掉全球相当一部分内存产能。
这种变化已经开始影响消费电子市场。
国际数据公司(IDC)预计,2026年智能手机平均售价将上涨到523美元,比上一年增加约14%。一些售价低于100美元的手机甚至可能逐渐消失。[3]
应对变化
这种变化很快也传到了科研领域。
在 Nature 的报道中,来自印度的植物病理学家 Rayanoothala 正在做一个项目:利用机器学习模型预测农作物病害风险。模型需要处理大量农业数据,并在云服务器上运行。过去这些计算成本并不算太高。但随着内存价格上涨,团队开始明显感觉到压力。[2]
为了省钱,他们现在不得不把数据拆分成多个部分,分别运行模型,然后再把结果汇总。这种做法虽然能节省内存,但分析速度慢了不少。Rayanoothala 表示,项目周期已经被拉长,研究成本也在增加。
在一些资源更有限的地区,这种问题更加明显。南非一所研究机构的负责人 Ibijola 提到,一些研究人员不得不前往资源更充足的大学,在那里完成数据分析。“他们在那里待上几个月,分析完数据,然后带着一份PDF回去。” [2]
AI时代的计算资源本来就分布不均,而内存价格上涨可能会进一步扩大这种差距。这或许是AI繁荣背后不那么被人注意的一面。
不过,一些研究人员认为,这种压力也可能推动新的技术尝试。过去几十年里,内存一直比较便宜,软件开发者很少刻意去节省它。英国计算机公司Raspberry Pi(树莓派)的创始人 Eben Upton 说:“内存曾经非常便宜,因此人们没有动力去节省内存……现在他们有动力了。” [2]
现在情况开始发生变化。一些研究人员重新检查算法,希望减少程序对内存的依赖。
在硬件层面,也有人在探索新的计算架构。例如所谓的 near-memory computing(近存计算),把处理器和内存更紧密地集成在同一芯片上,以显著减少数据传输的延迟和能耗,从而提升系统整体的处理效率。不过,这类技术要真正普及,还需要芯片制造商投入大量资金。
AI时代的新瓶颈
几十年来,计算机技术的进步往往围绕一个指标:处理器速度。但AI的出现,让另一个问题变得越来越明显——计算机能否快速处理和传输海量数据。
在很多AI系统中,真正的瓶颈并不在算力,而在内存。这也是为什么一场看似普通的芯片涨价,会引起科技行业和科研界的关注。
未来几年,随着新的芯片工厂建成,以及计算架构逐渐调整,内存供应可能会慢慢恢复平衡。但在短期内,这场由AI推动的 “内存紧张” 仍然会持续影响很多领域——从消费者购买电子设备,到科研人员运行模型。
而这一切,也许只是AI时代基础设施变化的一个开始。
参考资料:1. https://counterpointresearch.com/en/insights/Memory-Prices-Surge-Up-to-90-From-Q4-2025
2.https://www.nature.com/articles/d41586-026-00844-x
3.https://edition.cnn.com/2026/02/27/tech/ai-memory-chips-smartphones-intl-hnk
4.https://news.northeastern.edu/2026/02/26/ram-shortage-cause/
5.https://www.iea.org/reports/energy-and-ai
6.https://techcrunch.com/2026/02/28/billion-dollar-infrastructure-deals-ai-boom-data-centers-openai-oracle-nvidia-microsoft-google-meta/
7.https://counterpointresearch.com/en/insights/global-dram-and-hbm-market-share
内容来自公众号《比格鱼鱼》,欢迎关注。
热门跟贴