一、DeepSeek 最新模块 Ingram 解读
- 功能与优势:Ingram 是将存储与计算解耦的模块,把静态知识(条件式记忆)从 GPU 计算中抽离,放到由 DRAM 组成的独立存储层。这样可减少对高价 HBM 显存的依赖,用更便宜的 DRAM 替代部分 HBM 工作,提升 AI 模型效率,降低硬件成本,尤其适合 HBM 进口受限的中国市场。
- 技术机制:通过哈希索引方式快速映射知识,读取时间为常数时间(O1),同时与 MoE(稀疏混合专家)并行,仅在需要时访问记忆,避免 GPU 重复运算,实现存储与计算的彻底分离。
针对代码生成和推理能力做了大幅加强,有望像上一代一样运行在消费级硬件(如 RTX5090 显卡)上,其编码性能和推理成本的优化是检验新架构的关键。
三、对中国 AI 及半导体行业的影响
- AI 领域:中国 AI 企业在硬件受限下,通过架构优化(如条件式记忆、稀疏混合专家等),在模型性能上缩小了与国际顶尖模型(如 ChatGPT5.2)的差距,在 MMLU、编程等专业评测中互有胜负,部分模型在推理效率、多模态、代码能力等维度形成独特优势。
- 半导体及存储行业:存储与计算解耦推动存储半导体国产化,北方华创、中微公司、长电科技等企业被重点关注,大摩通过剩余收益模型对其估值,同时分析了行业需求、技术突破、市场份额等因素带来的上行与下行风险。
- 与 RAG(检索增强生成)相比:Ingram 的记忆是模型参数一部分,生命周期与模型一致,适合处理静态知识;RAG 记忆存在外部存储,适合处理动态大规模知识。
- 与 KV Cache 相比:Ingram 容量可随内存扩展,不依赖 GPU 显存;KV Cache 是临时存储,容量随输入长度线性增长。
热门跟贴