AI硬件重点看好AI芯片方向,国产算力在解决产能供给瓶颈后,伴随国内互联网公司持续提升的AI算力需求以及自上而下的国产化目标,有望迎来“从1到10”的业绩放量,核心公司具有较大弹性。
存储芯片供给端扩产周期长、产能弹性有限,导致供需严重失衡,进而推动存储价格大幅上涨。这一趋势预计将在未来1—2年内持续,为存储产业链带来显著的业绩弹性。
AI大模型要真正触达消费者,必须依托高效的端侧入口。当前最具潜力的两大终端形态为智能手机与AI眼镜。
来源:新财富杂志(ID:xcfplus)
作者:王芳(中泰证券研究所联席所长兼电子行业首席分析师)
更多详细内容参见2月份出版的《新财富》杂志
01
AI硬件:升级迭代加速
云端算力基建维持高景气,大厂资本开支强劲,北美及中国头部云厂商(CSP)2025―2026年资本开支指引乐观,主要用于AI服务器、数据中心和网络基础设施,因此带动硬件升级迭代加速:AI服务器技术规格快速演进(如英伟达Rubin架构),带动PCB(印刷电路板,高阶技术路线包括高端HDI/SLP,即高密度互连板/类载板)、光模块、液冷系统等配套硬件的需求量和价值量双升。
重点看好AI芯片方向,从图形处理器(GPU)向专用集成电路(ASIC)演进,降本成为核心驱动力。当前AI服务器中价值占比最高的部分是GPU,其成本约占整机的80%―90%。过去两年,尤其是2024年以来,AI应用重心正从训练阶段加速向推理阶段迁移,芯片架构也逐步由通用型GPU转向专用型ASIC。
这一转变的核心动因在于显著的成本优化。以英伟达高端GPU为例,单颗售价约10万美元以上;而谷歌通过自研TPU(张量处理单元),可将推理成本降低约50%。正因如此,全球科技巨头纷纷布局自研AI芯片⃞谷歌的TPU已支撑其大模型在全球保持领先地位,而博通作为TPU的主要设计方,市值在近两年增长2―3倍,目前已达1.5万亿美元。
相比之下,中国AI芯片龙头企业寒武纪当前市值仅约5000亿元人民币,远低于英伟达的4万多亿美元。差距并非源于市场规模或设计能力,而主要受限于先进制程制造环节。国产AI芯片高度依赖台积电等海外代工厂,在先进工艺节点上面临“卡脖子”问题,导致产品迭代速度滞后。因此,以中芯国际为代表的本土晶圆代工企业正加速布局先进制程产能,其营收已实现持续快速增长,成为国产替代的关键支点。
展望2026年,国产算力在解决产能供给瓶颈后,伴随国内互联网公司持续提升的AI算力需求,以及自上而下的国产化目标,有望迎来“从1到10”的业绩放量,核心公司具有较大弹性。
02
存储:需求爆发叠加供给紧张,价格持续上行
服务器第二大价值组成部分是存储系统。近年来,AI服务器和数据中心建设推动存储需求呈爆炸式增长。国内头部互联网厂商资本开支强劲,AI服务器出货量年增速普遍超过30%;若按英伟达的乐观预测,未来几年AI服务器复合增长率有望达到50%。在此背景下,存储需求同步高速增长。
根据TrendForce数据,我们预计2026年全球八大CSP(云计算服务商,包括美系四巨头谷歌、亚马逊、Meta、微软及中国的阿里巴巴、百度、腾讯等)的资本开支将飙升至6020亿美元,同比增长40%。其中,约60%将用于服务器及相关ICT基础设施,这意味着仅CSP的服务器支出就将达到3612亿美元。在全球服务器市场中,CSP贡献近59%的采购额,其需求动向已成为整个市场的风向标⃞我们不能忽视这一核心引擎的强劲拉动力。
此外,我们测算出服务器存储市场规模将同步水涨船高。在服务器BOM成本(物料清单成本)中,存储芯片(DRAM+NAND+HDD,即“动态随机存取存储器+闪存+硬盘”)的价值量占比已稳定在25%―27%。基于上述CSP支出,并考虑非CSP领域(企业、政府等)约20%的需求增速,我们推算2026年全球服务器存储采购金额将达到1376亿美元,同比增长31%。值得注意的是,这一数字尚未计入因供需紧张可能带来的价格上涨因素,实际市场规模有望更高。
我们深入剖析了AI推理三大范式升级如何重构存储需求的底层逻辑。
KVCache多层缓存成为标配:为降低大语言模型(LLM)推理时延与算力成本,业界普遍采用“HBM(热点计算)+DRAM(层级缓存)+SSD(冷数据/长周期缓存)”的三级架构。这使得DRAM与SSD不再是被动的数据仓库,而是主动参与计算流程的关键环节,其配置容量被显著放大。
对话范式从“自答”走向“协作”:链式推理(CoT)、多Agent(智能体)协同、工具调用等复杂交互模式日益普及,单次任务的词元(Token)消耗量从千级跃升至万级,带来10倍量级的数据读写需求。这要求我们的存储系统能高效、低成本地承载中间态与历史态数据。
媒介从“文本”迈向“多模态”:视频、音频等内容的生成与理解,其时空Token密度远超纯文本,对HBM带宽、DRAM容量及SSD持续扩容能力提出更高要求⃞尤其在冷数据缓存、检索索引等方面,SSD展现出最强弹性。
这些趋势共同指向一个结论:我们正进入一个“存储即性能”的时代,存储不再只是配套,而是决定AI系统效率与成本的核心变量。
然而,存储芯片供给端扩产周期长、产能弹性有限,导致供需严重失衡,进而推动存储价格大幅上涨。这一趋势预计将在未来1―2年内持续,为存储产业链带来显著的业绩弹性。
面对汹涌需求,我们观察到存储原厂并未盲目扩产,而是采取“技术优先、聚焦高端”的战略,将有限产能向AI数据中心倾斜,导致通用产品供给相对宽松,而AI专用高端产品供给极度紧张。
在DRAM领域,我们看到制程迭代正在加速。行业正从1a节点快速向1b、1c演进,其中1b将在2026年成为主力,1c则率先用于HBM4芯片等顶级产品。具体来看,三星已与英伟达敲定HBM4供应协议,并通过P4、P5工厂扩建及旧产线改造,大幅提升1c、HBM4产能,同时削减1a产能转向1b。SK海力士采用1b制程生产HBM4,并计划将1c产能扩大8倍以满足AI客户,更宣布将于2026年4月停产DDR4,将全部产能转向HBM与DDR5。美光则将1β、1b工艺用于HBM4,1γ、1c用于DDR5、LPDDR5X,并逐步覆盖全产品线。这些动作清晰表明,原厂的战略重心已完全转向AI驱动的高价值DRAM,通用DRAM的供给增长极为有限。
在NAND领域,我们同样看到结构性倾斜。3DNAND层数已迈入“300+时代”(如SK海力士为321层),单Die(单个NAND闪存芯片)容量与晶圆产出效率大幅提升。但厂商策略高度聚焦:三星重启Z-NAND研发,目标是提供性能比传统NAND高15倍、功耗低80%的AI优化产品;SK海力士推出专属“AI-NAND”家族;美光则果断退出移动UFS5(通用闪存存储第五代标准)与消费级SSD业务,新工厂(台湾A5、日本广岛)全力聚焦HBM,同时推出基于G9-NAND的企业级SSD。
由此可见,NAND供给也在向高密度、高性能的数据中心SSD集中,消费级与移动级产品线被战略性收缩。这种“高端紧、低端松”的格局,正是“硬缺口”形成的关键原因。
03
AI终端入口:
手机与AR眼镜将成为关键载体
AI大模型要真正触达消费者,必须依托高效的端侧入口。当前最具潜力的两大终端形态为智能手机与AI眼镜。
智能手机:苹果被视为AI手机的核心引领者。其首款AI手机将于2025年进入第二代产品周期,并在2026年迭代至第三代,标志着AI手机进入创新爆发期。
AI眼镜:Meta是该领域的先行者。其AI眼镜销量从2023年不足200万台,跃升至2024年约500万台,预计2025年将突破2000万台。Meta正积极推进多款AI硬件产品的发布与生态建设,市场前景广阔。
巨头纷纷布局,苹果、Meta、阿里、字节等科技巨头正加速将AI能力下沉至手机、可穿戴设备(尤其是AI眼镜)等终端。
硬件载体明确,AI手机和AI眼镜被视为中短期最重要的端侧AI落地场景,有望催生新的硬件创新浪潮和供应链机会。
终端设备需兼顾性能、成本与用户体验,因此对芯片能效比、系统集成度及工业设计提出更高要求,也为产业链上下游带来新的增长机遇。
本文所提及的任何资讯和信息,仅为作者个人观点表达或对于具体事件的陈述,不构成推荐及投资建议,不代表本社观点。投资者应自行承担据此进行投资所产生的风险及后果。
热门跟贴