打开网易新闻 查看精彩图片

到2030年,CPU总潜在市场规模将新增325亿至600亿美元,而服务器CPU总潜在市场规模将超过1000亿美元。

摩根士丹利在其最新研究报告中指出,人工智能的下一阶段不再仅仅关乎更快的GPU。随着人工智能从单任务生成转向自主的多步骤“智能体”系统,其经济价值正转移到更广泛的基础设施层面,CPU和内存正成为新的瓶颈。

这一转变标志着人工智能结构从原始计算转向编排。虽然GPU需求依然强劲,但如今每次模型调用都需要更多的协调、持久内存和系统级处理,这使得人工智能的支出范围不再局限于加速器。“智能体人工智能将应用范围扩展到GPU之外,CPU成为多步骤工作流和系统编排的控制平台,”报告指出。

摩根士丹利通过一个全新的框架量化了这一机遇,该框架评估了新增的计算和内存需求。CPU端编排可占代理系统总工作负载延迟的50%至90%,从而显著提升通用计算强度。该券商预计,到2030年,CPU总潜在市场规模将新增325亿至600亿美元,而服务器CPU总潜在市场规模(TAM)将超过1000亿美元。在内存方面,代理工作负载到2030年可能带来15至45艾字节的额外DRAM需求,相当于2027年DRAM年供应量的26%至77%。

AI集群的架构也在发生变化。智能体工作负载依赖于以CPU为中心或混合的设计来管理推理、工具执行和内存编排,从而提高了集群层面的CPU与GPU比例。内存不再是被动存储,而是支持持久上下文和持续学习的主动系统组件。这推动了CPU、DRAM以及更广泛的基础设施堆栈(包括代工厂产能、ABF基板和互连层)的内容增长。

投资影响广泛且遍及全球。“随着系统复杂性的增加,供应受限的赋能者(晶圆代工、ABF、BMC、互连)将获得巨大的经济效益,”摩根士丹利表示。受益者涵盖整个技术栈——CPU供应商、内存供应商、存储公司、先进封装和基板供应商、晶圆代工厂、设备制造商和服务器制造商。简而言之,人工智能领域的投资范围正在从加速器扩展到所有为智能代理系统提供支持的各方。

该公司预计,未来五年内,人工智能智能体的兴起将重新定义基础设施的优先事项。随着企业部署能够规划、推理并与外部工具交互的智能体,数据中心架构需要重新优化,以实现协同工作,而不仅仅是追求峰值计算能力。这使得低延迟互连、高带宽内存和弹性代工供应链的重要性日益凸显,而这些领域本身就面临供应紧张的局面,并且很可能需要支付更高的价格。

展望还表明半导体行业正在经历重新平衡。尽管英伟达和其他GPU领导者仍然占据核心地位,但新增收入的重心正在向CPU厂商和内存供应商转移。摩根士丹利预测,到2030年,编排型CPU将开辟一个价值825亿至1100亿美元的数据中心市场,其中代理工作负载将贡献大部分新增增长。

对于投资者而言,这份报告强调,拥有最好的加速器已不再足够。“这一转变的受益者是全球性的全栈企业,”报告指出,这预示着人工智能投资领域将更加广阔和多元化。随着智能体人工智能规模的扩大,能够提供端到端系统效率而非单一解决方案的企业将成为最终赢家。

报告指出,从生成式人工智能向智能体人工智能的过渡仍处于早期阶段,但所需的基础设施建设将比第一阶段更加复杂且资金密集。如果执行速度跟上步伐,未来五年内,CPU和内存可能与GPU并驾齐驱,成为人工智能相关半导体收入增长的主要驱动力。(ANI)

这种结构性转变的背后,是智能体AI与生成式AI的本质差异——前者从“被动响应指令”升级为“主动完成任务”,需要围绕目标自主规划路径、调用工具、验证结果并迭代优化,这种多步骤闭环流程对算力协同的要求远超单一的模型生成。实测数据显示,在金融异常检测、AI代码生成等典型场景中,CPU负责的调度、验证等操作耗时已超过GPU的推理耗时,若CPU资源不足,昂贵的GPU将长期处于闲置状态,严重降低整体算力利用率。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。