CPU在大模型推理中的重新重视——特别是DeepSeek最新提出的Engram架构(“查算分离”)与英伟达Rubin/Vera架构中对CPU内存角色的强化——对澜起科技(688008.SH)和聚辰股份(688123.SH)构成显著正面影响,且这种影响具有结构性、长期性和高确定性。具体体现在以下三个层面:

打开网易新闻 查看精彩图片

一、技术趋势:CPU内存从“配角”变为“AI记忆仓库”

打开网易新闻 查看精彩图片

1.DeepSeek Engram 架构的核心思想

  • 将模型中80%的静态知识(如代码模板、人名地名、公式)抽离为“超级字典”,存入CPU主存(DRAM);
  • GPU仅负责动态推理,CPU负责毫秒级检索;
  • 实现千亿参数模型仅需消费级GPU + 大容量内存条即可部署,成本降低90%。
✅ 结果:单台服务器内存容量需求从64–128GB跃升至512GB–2TB甚至更高。
2.英伟达Rubin架构的存储分层设计
  • 引入独立高速上下文存储层(ICMS),将KV Cache等长上下文数据从HBM迁移至LPDDR或CXL连接的DRAM/SSD
  • 每颗GPU额外配置16TB NAND + 数百GB DRAM缓存
  • 黄仁勋明确表示:“AI正在重塑内存层级,CPU内存成为推理基础设施的一部分”。
✅ 结果:AI服务器内存模组数量、带宽、容量全面升级,DDR5/LPDDR5渗透加速。
二、对澜起科技的正面影响:接口芯片需求爆发

澜起科技是全球内存接口芯片(RCD/DB)龙头,市占率约45%,同时布局CKD时钟驱动芯片PCIe RetimerMXC CXL内存扩展芯片

具体受益点:

表格

产品

应用场景

受益逻辑

DDR5 RCD/DB

AI服务器主内存模组

DDR5在AI服务器渗透率2024年为50%,预计2026年达90%+,单价是DDR4的2倍,澜起为唯一国产供应商

CKD时钟驱动芯片

LPDDR5X内存子系统(用于AI缓存)

英伟达Rubin架构大量采用LPDDR5X作为中间缓存,每台服务器需10颗CKD,2025年进入大规模放量期

MXC CXL内存扩展芯片

CPU直连大容量内存池(支持Engram外挂内存)

DeepSeek方案需TB级CPU内存,CXL技术可突破传统通道限制,澜起MXC已送样三星/SK海力士

量化影响: 澜起2024年高运力芯片收入4.22亿元(+700%),2025Q1达1.35亿元(+155%);机构预测:2026年CKD+MXC合计收入将超10亿元,成为第二增长曲线。
三、对聚辰股份的正面影响:SPD EEPROM需求刚性提升

聚辰股份是全球SPD EEPROM(串行存在检测芯片)核心供应商,用于存储内存模组的配置参数(如频率、电压、时序),每根内存条需1颗。

具体受益点:

表格

驱动因素

影响机制

AI服务器内存容量激增

单台AI服务器内存插槽数从8–16条增至32–64条(如x8g实例支持3TB内存),EEPROM用量翻2–4倍

DDR5/LPDDR5普及

DDR5模组必须配备SPD EEPROM,而部分DDR4可省略;渗透率提升直接扩大市场总量

国产替代加速

聚辰是三星、SK海力士、美光三大原厂认证供应商,澜起/长鑫等国产内存模组厂优先选用其芯片

量化影响: 聚辰2024年EEPROM收入同比增长超40%,其中服务器占比提升至35%+;单台高端AI服务器EEPROM价值量从 5提升至5提升至 15–20,毛利率稳定在50%+。
四、综合评估:正面影响明确,且具持续性

表格

维度

澜起科技

聚辰股份

受益强度

⭐⭐⭐⭐⭐(核心受益)

⭐⭐⭐⭐(配套受益)

技术绑定度

高(DDR5/CXL为AI内存刚需)

中高(EEPROM为内存模组必备)

业绩弹性

2025–2026年高运力芯片收入CAGR >60%

服务器EEPROM收入CAGR ~35%

风险

CXL生态推广不及预期

价格竞争加剧(但认证壁垒高)

结论:CPU重获重视 = 内存升级 = 澜起与聚辰的“黄金窗口期”

DeepSeek的Engram架构与英伟达的存储革命,共同推动AI服务器从“GPU中心”转向“GPU+CPU内存协同”架构。 这一转变直接导致: 内存容量、带宽、通道数全面提升;DDR5/LPDDR5/CXL成为新标准;内存接口芯片与SPD EEPROM需求刚性增长。

因此,澜起科技和聚辰股份不仅不受负面影响,反而成为这一技术范式转移的核心受益者。未来2–3年,随着AI服务器出货量持续攀升(预计2026年全球AI服务器超200万台),二者有望实现量价齐升,进一步巩固在全球内存配套芯片领域的领先地位。

打开网易新闻 查看精彩图片