来源:市场资讯
(来源:智通财经)
智通财经APP获悉,广发证券发布研报称,在大模型应用中,相比依赖外置HBM,SRAM可显著降低权重与激活数据的访延迟与抖动,从而改善Time-to-First-Token与尾时延表现。目前,Groq与Cerebras都相继推出基于SRAMAI芯片。SRAM架构进入主流视野,根据Groq官网以及市场媒体报道,英伟达此前斥资200亿美元获得Groq的知识产权的非独家授权;OpenAI与Cerebras签署100亿美元合同,部署多达750兆瓦的定制AI芯片。
广发证券主要观点如下:
SRAM是片上高带宽存储层
存储分级为SRAM、HBM、DRAM和SSD,其中SRAM(静态随机存取存储器)集成在CPU、GPU计算核心附近的片上存储,具备纳秒级访问时延与高度确定性的带宽特性,带宽高但容量小、成本高。
SRAM可提升AI推理速度
在大模型应用中,相比依赖外置HBM,SRAM可显著降低权重与激活数据的访延迟与抖动,从而改善Time-to-First-Token与尾时延表现。Groq和Cerebras两家明星创业公司都推出了基于SRAM的AI芯片。
根据Groq官网,其LPU单芯片内集成约230MB片上SRAM,存储带宽高达80 TB/s(GPU片外HBM 的内存带宽约为8TB/s)。以Llama3.3 70B模型为例,根据Artificial Analysis的独立基准测试,GroqLPU芯片在不同上下文长度下均能维持稳定推理速度,达275-276token/s,显著优于其他推理平台。
根据Cerebras官网,其晶圆级引擎3(WSE-3)芯片集成44GB SRAM,片上存储带宽达21 PB/s,在OpenAI GPTOSS 120B推理任务中实现>3000 tokens/s的输出速度,较主流GPU云推理快约15×。此外,2026年2月,OpenAI推出首个运行在Cerebras Systems AI加速器上的模型GPT-5.3-Codex-Spark预览版,支持>1000tokens/s的代码生成响应速度,为用户提供更具交互性的编程体验。
SRAM架构进入主流视野
根据Groq官网、半导体行业观察公众号数据,2025年12月,英伟达斥资200亿美元获得Groq的知识产权的非独家授权,其中包括其语言处理单元(LPU)和配套软件库,并引入Groq核心工程团队。根据Openai官网、芯东西公众号数据,2026年2月,Cerebras宣布完成10亿美元F轮融资,估值达230亿美元,此外,OpenAI与Cerebras签署100亿美元合同,部署多达750兆瓦的定制AI芯片。
投资建议
AI的Memory时刻,AI记忆持续扩展模型能力边界,AI Agent等应用加速落地。AI记忆相关上游基础设施价值量、重要性将不断提升,建议关注产业链核心受益标的。
风险提示
AI产业发展以及需求不及预期;AI服务器出货量不及预期,国产厂商技术和产品进展不及预期。
热门跟贴