一、开篇
DRAM不是“存东西的配角”,它是算力真正的地基。很多人聊AI芯片,只盯着GPU、NPU、算力多少TOPS。但做过系统的人都知道一句话:算力决定上限,内存决定你能不能跑起来。
DRAM干的事很朴素:它不负责“算”,只负责让数据在算力面前不断地、快速地出现。你可以把AI芯片想成一台超级发动机,DRAM就是油路、油箱和供油系统。发动机再猛,油供不上,直接熄火。
二、DRAM到底难在哪?一句话:反人类
DRAM看起来结构简单:一个晶体管 + 一个电容,存 0 或 1。
但工程师都知道,它难在三件事同时成立:
1. 更小(纳米级缩小)
2. 更快(更高带宽)
3. 更稳(不丢数据、不乱翻转)
这三件事,天然互相打架。
• 电容越小,越容易漏电
• 漏电越快,就得越频繁刷新
• 刷新越频繁,功耗和延迟就越大
所以你看到的不是“做没做出来”,而是良率、稳定性、功耗、寿命一起过线。
这也是为什么:DRAM不是“设计难”,而是“制造地狱级”。
三、为什么全世界只剩三家?
答案很冷酷:规模 + 时间 = 护城河
DRAM是典型的:
• 极端资本密集
• 极端周期波动
• 极端规模导向
一条先进DRAM产线:
• 投资是千亿级
• 折旧按十年以上
• 行业周期一跌,立刻血流成河
历史已经反复证明:没有规模,就没有成本;没有成本,就没有生存权。所以最后能活下来的,只剩下那几家:
• 三星
• SK海力士
• 美光
不是他们多聪明,而是只有他们能在最差周期里不断血亏、不断活下去。
四、AI时代,DRAM反而更重要了
很多人误以为:有了HBM,普通DRAM就不重要了。这是典型的工程误解。
真实情况是:
• HBM 是 DRAM 的“特种部队”
• DDR / LPDDR 是 DRAM 的“主力军”
HBM解决的是:
• 极致带宽
• GPU旁路访问
但系统里:
• CPU内存
• AI推理
• 服务器缓存
• 终端设备
绝大多数仍然靠DRAM在撑。
更残酷的一点是:AI并没有减少DRAM需求,而是放大了。
• 参数越大 → 内存越多
• batch越大 → 带宽越高
• 推理下沉 → LPDDR爆发
所以你看到的是:
• DDR5快速渗透
• LPDDR5/5X成为主流
• HBM把DRAM工艺推到极限
DRAM不是被替代,而是被榨干潜力。
五、做DRAM,本质是在赌国运和耐心
这也是为什么在长鑫存储的招股书和问询函里,你会反复看到几个关键词:
• 重资产
• 高折旧
• 长期亏损
• 技术追赶
• 行业周期
这不是“包装用语”,而是现实。
做DRAM,你要接受三件事:
1. 前期一定亏,而且亏很久
2. 技术进步不是跳跃,是慢爬
3. 任何一次行业下行,都是生死考验
但反过来讲:一旦站稳,回报周期也是十年起步。这就是DRAM最残酷、也最有战略价值的地方。
六、写给工程师的一段心里话
如果你在DRAM行业干过,你一定知道:
• Debug一次bit flip,可能熬几个通宵
• 工艺良率提升 0.5%,可能是一整年
• 行业一跌,所有努力都被利润表抹平
但你也知道另一件事:
没有DRAM,整个信息世界是空的。
CPU算不了
GPU跑不动
AI模型躺在磁盘上动不了
DRAM不耀眼,但它撑住了一切。
最后一句总结:DRAM不是性感的芯片,但它是最诚实的芯片。它不讲故事,只认物理、认工艺、认规模、认时间。在算力狂飙的时代,真正决定系统能不能跑、能不能活的,往往就是这一颗最不起眼的内存。
欢迎加入行业交流群,备注岗位+公司,请联系老虎说芯(加V:tigerchip)
热门跟贴