CPU在大模型推理中的重新重视——特别是DeepSeek最新提出的Engram架构(“查算分离”)与英伟达Rubin/Vera架构中对CPU内存角色的强化——对澜起科技(688008.SH)和聚辰股份(688123.SH)构成显著正面影响,且这种影响具有结构性、长期性和高确定性。具体体现在以下三个层面:
一、技术趋势:CPU内存从“配角”变为“AI记忆仓库”
1.DeepSeek Engram 架构的核心思想
- 将模型中80%的静态知识(如代码模板、人名地名、公式)抽离为“超级字典”,存入CPU主存(DRAM);
- GPU仅负责动态推理,CPU负责毫秒级检索;
- 实现千亿参数模型仅需消费级GPU + 大容量内存条即可部署,成本降低90%。
✅ 结果:单台服务器内存容量需求从64–128GB跃升至512GB–2TB甚至更高。2.英伟达Rubin架构的存储分层设计
- 引入独立高速上下文存储层(ICMS),将KV Cache等长上下文数据从HBM迁移至LPDDR或CXL连接的DRAM/SSD
- 每颗GPU额外配置16TB NAND + 数百GB DRAM缓存
- 黄仁勋明确表示:“AI正在重塑内存层级,CPU内存成为推理基础设施的一部分”。
✅ 结果:AI服务器内存模组数量、带宽、容量全面升级,DDR5/LPDDR5渗透加速。二、对澜起科技的正面影响:接口芯片需求爆发
澜起科技是全球内存接口芯片(RCD/DB)龙头,市占率约45%,同时布局CKD时钟驱动芯片、PCIe Retimer、MXC CXL内存扩展芯片。
具体受益点:
表格
产品
应用场景
受益逻辑
DDR5 RCD/DB
AI服务器主内存模组
DDR5在AI服务器渗透率2024年为50%,预计2026年达90%+,单价是DDR4的2倍,澜起为唯一国产供应商
CKD时钟驱动芯片
LPDDR5X内存子系统(用于AI缓存)
英伟达Rubin架构大量采用LPDDR5X作为中间缓存,每台服务器需10颗CKD,2025年进入大规模放量期
MXC CXL内存扩展芯片
CPU直连大容量内存池(支持Engram外挂内存)
DeepSeek方案需TB级CPU内存,CXL技术可突破传统通道限制,澜起MXC已送样三星/SK海力士
量化影响: 澜起2024年高运力芯片收入4.22亿元(+700%),2025Q1达1.35亿元(+155%);机构预测:2026年CKD+MXC合计收入将超10亿元,成为第二增长曲线。三、对聚辰股份的正面影响:SPD EEPROM需求刚性提升
聚辰股份是全球SPD EEPROM(串行存在检测芯片)核心供应商,用于存储内存模组的配置参数(如频率、电压、时序),每根内存条需1颗。
具体受益点:
表格
驱动因素
影响机制
AI服务器内存容量激增
单台AI服务器内存插槽数从8–16条增至32–64条(如x8g实例支持3TB内存),EEPROM用量翻2–4倍
DDR5/LPDDR5普及
DDR5模组必须配备SPD EEPROM,而部分DDR4可省略;渗透率提升直接扩大市场总量
国产替代加速
聚辰是三星、SK海力士、美光三大原厂认证供应商,澜起/长鑫等国产内存模组厂优先选用其芯片
量化影响: 聚辰2024年EEPROM收入同比增长超40%,其中服务器占比提升至35%+;单台高端AI服务器EEPROM价值量从 5提升至5提升至 15–20,毛利率稳定在50%+。四、综合评估:正面影响明确,且具持续性
表格
维度
澜起科技
聚辰股份
受益强度
⭐⭐⭐⭐⭐(核心受益)
⭐⭐⭐⭐(配套受益)
技术绑定度
高(DDR5/CXL为AI内存刚需)
中高(EEPROM为内存模组必备)
业绩弹性
2025–2026年高运力芯片收入CAGR >60%
服务器EEPROM收入CAGR ~35%
风险
CXL生态推广不及预期
价格竞争加剧(但认证壁垒高)
结论:CPU重获重视 = 内存升级 = 澜起与聚辰的“黄金窗口期”
DeepSeek的Engram架构与英伟达的存储革命,共同推动AI服务器从“GPU中心”转向“GPU+CPU内存协同”架构。 这一转变直接导致: 内存容量、带宽、通道数全面提升;DDR5/LPDDR5/CXL成为新标准;内存接口芯片与SPD EEPROM需求刚性增长。
因此,澜起科技和聚辰股份不仅不受负面影响,反而成为这一技术范式转移的核心受益者。未来2–3年,随着AI服务器出货量持续攀升(预计2026年全球AI服务器超200万台),二者有望实现量价齐升,进一步巩固在全球内存配套芯片领域的领先地位。
热门跟贴