打开网易新闻 查看精彩图片

近日,据可靠行业消息来源透露,英伟达已于本周向部分核心合作伙伴交付了备受期待的Vera Rubin平台首批工程样品,预计将于 2026 年下半年正式启动大规模出货。

Vera Rubin 平台并非简单的产品迭代,而是一款面向下一代AI 数据中心、旨在实现系统级突破的全新架构。 它通过六款芯片的深度协同设计,从计算、网络、存储到能效,全方位系统性解决了长期运行大规模 AI 推理任务所面临的瓶颈。 该平台有望为AI推理带来指数级的性能提升与总拥有成本(TCO)的大幅降低。

Vera Rubin 平台核心组件包括:

1、Vera CPU

基于英伟达 自定义Olympus架构,拥有88个高性能核心(支持空间多线程技术,可同时处理多达 176 个线程),能提供相对于前代 Grace CPU 高达 2 倍的数据处理与压缩性能,为严苛的 AI 计算任务提供强劲的数据预处理能力。

2、Rubin GPU

首发采用下一代HBM4内存,单 GPU 容量高达 288 GB,内存带宽突破至 22 TB/s; 支持专为大规模模型优化的第三代Transformer引擎,其FP4推理性能达到惊人的 50 PFLOPS,训练性能达 35 PFLOPS,相较当前代际 Blackwell 架构,实现了推理性能约5倍、训练性能约3.5倍的代际跃升。

3、Rubin CPX GPU

作为 Rubin 家族的多元化成员,配备 128 GB 高速 GDDR7 内存,为特定成本敏感或延迟敏感的推理场景提供灵活且优化的选择。

4、NVLink 6.0交换芯片

可实现单 GPU 高达 3.6 TB/s 的双向带宽,支撑起机架级的无缝全互联。在 NVL72 系统中,聚合带宽可达 260 TB/s,较上代大幅提升,彻底消除了大规模并行计算中的通信瓶颈。

5、BlueField-4 DPU

一颗强大的数据中心基础设施芯片,集成了固态硬盘加速能力,可用于超低延迟的键值缓存卸载,以及其他关键的数据中心加速功能,释放 CPU 资源以专注于核心计算。

6、 网络互联组件

包括 1.6Tb/s 的 Spectrum-6 光子以太网和 Quantum-CX9 光子 InfiniBand 网络接口卡(NIC),配合对应的 Spectrum-X 光子以太网和 Quantum-CX9 光子InfiniBand交换芯片,共同构建起超高速、可大规模扩展的无阻塞计算网络。

据悉,为确保Vera Rubin平台顺利部署,英伟达正与生态伙伴紧密协作,提前进行软件栈与硬件集成的优化。目前,红帽、AWS、Anthropic、微软、Meta等多家领先企业和云服务提供商已公开承诺支持该平台。

根据合作深度与阶段不同,合作伙伴将获得平台的不同子模块或完整系统,其中头部云服务商及顶尖 AI 研究机构等核心客户将优先接收完整的Vera Rubin NVL72机架系统,整合了72 个Rubin GPU与36个Vera CPU等全部关键组件。

同时,富士康、广达、超微、纬创等全球领先的AI服务器 ODM厂商也已收到实际硅片样品,用于开展早期的系统适配与生产验证测试。

总体而言,Vera Rubin平台首批样品的成功交付,不仅是产品研发的关键转折点,更正式标志着 英伟达 下一代 AI 计算基础设施已迈入关键客户验证与生态体系准备的实质性阶段。

结合公司持续上调的营收预期以及市场对 AI 算力爆炸式增长的需求,Vera Rubin平台预计将从 2026 年下半年起进入大规模出货周期, 并有望在推理成本、单位功耗性能(能效)及规模扩展能力上实现又一次代际飞跃,进一步巩固英伟达在高性能 AI 计算领域的领导地位与技术护城河。(完)