一、开篇

DRAM不是“存东西的配角”,它是算力真正的地基。很多人聊AI芯片,只盯着GPU、NPU、算力多少TOPS。但做过系统的人都知道一句话:算力决定上限,内存决定你能不能跑起来。

DRAM干的事很朴素:它不负责“算”,只负责让数据在算力面前不断地、快速地出现。你可以把AI芯片想成一台超级发动机,DRAM就是油路、油箱和供油系统。发动机再猛,油供不上,直接熄火。

二、DRAM到底难在哪?一句话:反人类

DRAM看起来结构简单:一个晶体管 + 一个电容,存 0 或 1。

但工程师都知道,它难在三件事同时成立:

1. 更小(纳米级缩小)

2. 更快(更高带宽)

3. 更稳(不丢数据、不乱翻转)

这三件事,天然互相打架。

• 电容越小,越容易漏电

• 漏电越快,就得越频繁刷新

• 刷新越频繁,功耗和延迟就越大

所以你看到的不是“做没做出来”,而是良率、稳定性、功耗、寿命一起过线。

这也是为什么:DRAM不是“设计难”,而是“制造地狱级”。

三、为什么全世界只剩三家?

答案很冷酷:规模 + 时间 = 护城河

DRAM是典型的:

• 极端资本密集

• 极端周期波动

• 极端规模导向

一条先进DRAM产线:

• 投资是千亿级

• 折旧按十年以上

• 行业周期一跌,立刻血流成河

历史已经反复证明:没有规模,就没有成本;没有成本,就没有生存权。所以最后能活下来的,只剩下那几家:

• 三星

• SK海力士

• 美光

不是他们多聪明,而是只有他们能在最差周期里不断血亏、不断活下去。

四、AI时代,DRAM反而更重要了

很多人误以为:有了HBM,普通DRAM就不重要了。这是典型的工程误解。

真实情况是:

• HBM 是 DRAM 的“特种部队”

• DDR / LPDDR 是 DRAM 的“主力军”

HBM解决的是:

• 极致带宽

• GPU旁路访问

但系统里:

• CPU内存

• AI推理

• 服务器缓存

• 终端设备

绝大多数仍然靠DRAM在撑。

更残酷的一点是:AI并没有减少DRAM需求,而是放大了。

• 参数越大 → 内存越多

• batch越大 → 带宽越高

• 推理下沉 → LPDDR爆发

所以你看到的是:

• DDR5快速渗透

• LPDDR5/5X成为主流

• HBM把DRAM工艺推到极限

DRAM不是被替代,而是被榨干潜力。

五、做DRAM,本质是在赌国运和耐心

这也是为什么在长鑫存储的招股书和问询函里,你会反复看到几个关键词:

• 重资产

• 高折旧

• 长期亏损

• 技术追赶

• 行业周期

这不是“包装用语”,而是现实。

做DRAM,你要接受三件事:

1. 前期一定亏,而且亏很久

2. 技术进步不是跳跃,是慢爬

3. 任何一次行业下行,都是生死考验

但反过来讲:一旦站稳,回报周期也是十年起步。这就是DRAM最残酷、也最有战略价值的地方。

六、写给工程师的一段心里话

如果你在DRAM行业干过,你一定知道:

• Debug一次bit flip,可能熬几个通宵

• 工艺良率提升 0.5%,可能是一整年

• 行业一跌,所有努力都被利润表抹平

但你也知道另一件事:

没有DRAM,整个信息世界是空的。

CPU算不了

GPU跑不动

AI模型躺在磁盘上动不了

DRAM不耀眼,但它撑住了一切。

最后一句总结:DRAM不是性感的芯片,但它是最诚实的芯片。它不讲故事,只认物理、认工艺、认规模、认时间。在算力狂飙的时代,真正决定系统能不能跑、能不能活的,往往就是这一颗最不起眼的内存。

欢迎加入行业交流群,备注岗位+公司,请联系老虎说芯(加V:tigerchip)