这份由国海证券发布的计算机行业研究报告《从Blackwell到Rubin:计算、网络、存储持续升级——AI算力"卖水人"专题系列(七)》深入分析了AI算力产业链的最新发展动态,核心聚焦于英伟达新一代GPU架构的技术演进及其对产业链的带动效应。以下是主要内容总结:

核心观点

  1. 行业评级:维持计算机行业"推荐"评级,看好AI算力需求持续增长驱动的产业链机会。
  2. 核心逻辑:大模型训练与推理需求推动算力升级,英伟达Blackwell和Rubin架构的迭代将带动芯片、服务器、存储、液冷等全产业链技术革新。

一、GPU架构升级:Blackwell到Rubin

  1. Blackwell Ultra(B300)
  • 性能提升:采用TSMC 4NP工艺与CoWoS-L封装,FP4算力达15PFLOPS(较B200提升50%),搭载288GB HBM3E显存。
  • 能效优化:独立液冷板设计,支持130KW制冷能力,网络互联升级至ConnectX-8(800G带宽)。
  • 应用场景:AI工厂性能较Hopper提升50倍,推理效率提升40倍。

2.Rubin架构(2026-2027年)

  • Rubin NVL144:2026年推出,FP4算力3.6EFLOPS,HBM4内存13TB/s,NVLink 6.0带宽3.6TB/s。
  • Rubin Ultra NVL576:2027年推出,FP4算力15EFLOPS(较B300提升14倍),HBM4E内存4.6PB/s,支持576颗GPU互联。
  • Feynman架构:2028年推出,延续性能跃升趋势。

二、服务器与整机架构革新

  1. 从HGX到MGX
  • HGX:由ODM厂商(如鸿海、广达)生产模组,交付品牌服务器厂商。

  • MGX:开放模块化设计,支持快速定制,GB300 NVL72系统含18个计算托盘(72 GPU+36 CPU)和9个交换机托盘。
  • Rubin Ultra NVL576:采用Kyber架构,PCB背板替代铜缆,提升机架密度。2.性能对比
  • GB300 NVL72:HBM容量20.7TB(较GB200提升50%),NVLink带宽130TB/s,液冷方案升级至126片冷板(+133%)。
  • 成本优化:快接头尺寸缩小至1/3,单价下降但用量翻倍。

三、网络与互联技术

  1. CPO(共封装光学)
  • 优势:取代可插拔光模块,能效提升3.5倍,延迟降低,部署速度加快1.3倍。
  • 应用:Quantum-X(InfiniBand)和Spectrum-X(以太网)交换机支持400Tbps吞吐量,2026年量产。

2.NVLink迭代

  • NVLink 6.0:Rubin平台带宽3.6TB/s(双向)。
  • NVLink Fusion:开放生态支持第三方芯片互联,推动异构计算(如CPU+GPU+XPU协同)。

3.铜缆技术

  • GB300 NVL72采用5000+根NVLink铜缆(总长超2英里),1.6T速率满足高带宽需求。

四、存储:HBM技术突破

  1. HBM4(2026年量产)
  • 性能:12/16层堆叠,带宽20.5TB/s,I/O接口2048位,溢价幅度或超30%。
  • 厂商进展:SK海力士已交付样品,三星、美光跟进;SK海力士市占率超50%。
  • 定制化趋势:英伟达、微软等与SK海力士合作开发专属HBM芯片。

2.远期路线图(至2038年)

  • HBM8:容量达5TB+,带宽64TB/s,采用3D堆叠与嵌入式冷却技术。

五、液冷散热方案

  1. 技术路径
  • 冷板式液冷:成熟方案,GB300采用独立冷板设计(每芯片一进一出),单机柜功耗150kW。
  • 浸没式液冷:未来方向,Rubin Ultra NVL576或实现100%液冷。
  • 2.市场空间
  • 2026年GPU液冷市场规模或达800亿元(单机柜价值量约70万元)。
  • 核心部件:冷板、快接头、CDU(冷分配单元)、歧管等需求激增。

结论

英伟达通过Blackwell和Rubin架构持续引领AI算力升级,带动计算、网络、存储、散热全产业链创新。