NVIDIA通过发布Vera CPU扩大其在AI数据中心堆栈中的控制地位,这款处理器专为处理新兴智能体AI系统的编排层而设计。
在GTC 2026大会上发布的这款芯片,标志着AI基础设施构建方式的转变——将CPU从支撑组件提升为AI工作负载的核心控制平面。
"CPU不再仅仅是支持模型运行;它正在驱动模型,"NVIDIA首席执行官黄仁勋在GTC主题演讲中说道。
从训练转向编排
随着AI从训练转向生产,瓶颈正从单纯依赖GPU转向编排、推理协调和实时执行。
智能体AI系统——构建用于执行任务、调用工具和管理多步骤工作流程——需要大量CPU资源来协调数千个并发进程并维护运行时环境。
"我认为Vera值得关注,"Moor Insights & Strategy副总裁兼分析师Matt Kimball告诉Data Center Knowledge。"尽管CPU被GPU的声音淹没,但它不会消失——从架构角度来看,Vera有点革命性。"
"CPU是GPU集群的控制和编排平面,"他补充说。"随着智能体AI的扩展,这一角色变得更加苛刻,而不是更少。"
为AI原生并发而构建
Vera基于NVIDIA的Grace架构构建,但引入了针对高并发和持续利用而优化的设计。
该芯片具有以下特性:
88个定制的基于Arm的"Olympus"核心,每个核心都能使用NVIDIA空间多线程运行两个任务
LPDDR5X内存提供高达1.2TB/s的带宽
用于多租户性能的第二代可扩展一致性结构
但架构变化更深层次。
"空间多线程、神经分支预测、PyTorch优化的指令缓冲区、图数据库预取引擎——这些不仅仅是调整,"Kimball说。"它们以更多核心和内存本身无法做到的方式改变了性能配置。"
"传统的x86不是为此而设计的。Vera是,"他补充说。"它实际上是一个AI CPU——为智能体和强化学习工作负载而构建。"
与Rubin GPU集成
Vera不是独立产品;它与NVIDIA的下一代平台策略紧密集成。在Vera Rubin NVL72平台内,Vera CPU通过NVLink-C2C与GPU配对,提供高达1.8TB/s的一致性带宽——约为基于PCIe系统带宽的7倍,公司表示。该架构使计算层之间的数据移动更快,这对于在CPU编排和GPU执行之间动态切换的工作负载至关重要。
Vera还被定位为HGX Rubin NVL8系统的主机CPU,有效地充当GPU密集型AI集群的控制层。
扩展AI工厂
NVIDIA还通过机架规模的Vera系统扩展其"AI工厂"概念。这些系统支持:
多达256个液冷CPU
超过22,000个并发CPU环境
通过BlueField DPU和ConnectX SuperNIC进行集成网络和数据处理
该设计反映了工作负载模式的转变,从批处理到连续执行,从单一模型到分布式多智能体系统。
广泛的生态系统支持
NVIDIA提到了围绕Vera的广泛合作者和早期采用者,包括云服务提供商和AI基础设施合作伙伴,如Meta Platforms、阿里巴巴、字节跳动、Oracle云基础设施、CoreWeave、Nebius Group和Lambda,以及包括戴尔科技、惠普企业、联想和Supermicro在内的OEM厂商。
Kimball指出,超大规模验证——特别是Meta——是重要的。"Meta的采用不是试点,"他说。"这表明他们希望确保数百万个GPU持续得到供应。"
他还看到了新兴的更广泛企业应用。"Vera为NVIDIA提供了完整的计算平台故事——不仅仅是GPU,"他说。"随着智能体AI进入企业环境,这一点至关重要。"
功耗和下一个约束
Kimball强调功耗效率是一个决定性因素。
"它以比x86更低的功耗完成所有这些工作,"他说。"在功耗受限的数据中心世界中,这不是一个特性——这是一个根本性转变。"
DCK分析:重新定义AI演进的CPU
Vera代表了AI基础设施的结构性转变——不仅仅是另一个CPU发布。虽然GPU和模型规模定义了过去几年,但转向生产AI正在暴露一个新的瓶颈:系统编排。
随着智能体AI工作负载的扩展,挑战不再仅仅是执行模型;而是实时协调数千个进程。这种转变正在重新定位CPU作为AI性能的关键组件。
NVIDIA与Vera的策略反映了更广泛的雄心,即将其主导地位从加速器扩展到AI系统的控制平面。通过紧密耦合CPU和GPU,该公司将自己定位为全栈供应商——拥有执行和编排两方面。
这在以NVIDIA为中心的环境中具有直接优势,其中集成可以推动性能和效率提升。它还对Intel和AMD等传统CPU供应商施加了新的竞争压力,它们现在必须调整为通用计算构建的架构,以适应日益AI原生的工作负载。
如果智能体AI按预期扩展,数据中心将演变为实时进程的协调系统。在该模型中,CPU变得至关重要,竞争优势从单个芯片转向对整个系统的控制。
Q&A
Q1:Vera CPU与传统CPU有什么不同?
A:Vera CPU专为AI工作负载设计,配备88个定制Arm核心,支持空间多线程技术,具备神经分支预测和PyTorch优化指令缓冲区等AI原生功能,功耗比传统x86架构更低。
Q2:NVIDIA Vera CPU在智能体AI系统中起什么作用?
A:Vera CPU充当智能体AI系统的控制和编排平面,负责协调数千个并发进程,管理多步骤工作流程,处理任务调用和工具使用,确保GPU集群高效运行。
Q3:Vera CPU如何与GPU配合工作?
A:Vera CPU通过NVLink-C2C技术与Rubin GPU紧密集成,提供高达1.8TB/s的一致性带宽,比PCIe系统快7倍,实现CPU编排和GPU执行之间的快速数据传输和动态切换。
热门跟贴