来源:市场资讯
(来源:芝能汽车)
在 APEC 2026 的展厅上,有一个心照不宣的变化:数据中心的供电架构,是围绕 AI 算力来进行设计。
以前是电源围着服务器转,现在是电源围绕GPU去布置供电路径,电源系统正在不断向处理器“贴近”,试图把高压直流一路送到芯片附近。
过去几年,从通用服务器到AI训练集群,单机功率快速上升。
以 NVIDIA 为代表的AI硬件厂商,把整机功率从几千瓦推高到接近10kW,并继续向更高水平迈进,传统的48V供电体系开始显得吃力,损耗、布线复杂度以及散热压力都在放大。
800V直流架构开始进入数据中心,设计目的是很直接:提高电压,降低电流,从而减少传输损耗。
但问题在于,高压只是第一步,如何把800V有效转换为GPU所需的低电压,同时控制效率和热量,成为新的竞争焦点。
在 Infineon Technologies 的方案中,可以看到两种方法。
◎一种是800V直接降到12V,再进入VRM供给核心;
◎另一种则更复杂,从800V降到50V,再到6V,最后进入核心供电。
前者结构更简单,但需要把转换器尽可能贴近处理器,否则低压大电流带来的损耗会迅速增加。后者通过多级转换,在效率和布局之间寻找平衡。
英飞凌展示的一款6kW 800V-12V中间母线变换器,把效率推到了98%以上,同时把高度压缩到8mm。这种形态已经非常接近服务器内部可接受的空间尺度。
与此同时,他们也在推动中压IBC模块的标准化,把48/50V进一步降到6V,为更靠近芯片的供电做准备。
EPC Corporation 核心在于GaN器件的应用,800V-12.5V方案采用了ISOP(输入串联输出并联)架构,把一个大功率系统拆分为多个小模块运行。每个模块大约750W,通过交错运行来降低纹波。
这种设计看上去复杂,但带来了几个现实好处。
◎首先是电容需求显著下降,多相交错可以把纹波电流压低,从而减少体积庞大且昂贵的电容器。
◎其次是散热更均匀,功率被分散到多个模块中,更容易适应服务器内部狭长的散热结构。
对于机架式系统来说,这种分布式热管理比集中式方案更容易落地。
如果说800V到12V还是一种过渡方案,那么800V直接到6V,则更激进。
Navitas Semiconductor 在展会上展示的20kW电源分配板,可以输出6V、3000A的电流,直接服务GPU。这种设计把功率密度推到一个新的水平,也把电源模块的位置推到了处理器背面。
当电流达到3000A这个级别,任何距离都会带来巨大的I²R损耗。电源如果稍微远离GPU,就会产生难以接受的能量浪费和电压下降。
因此,电源模块必须嵌入服务器内部,与GPU几乎“贴身”布局,并且结合液冷系统共同设计。
在新一代机架设计中体现得非常明显。围绕 NVIDIA GB200 NVL72 的架构,电源不再集中在机架顶部或后部,而是分布在计算节点附近。
800V总线贯穿整个机架,电源模块直接插入服务器托架内部,通过液冷系统完成散热。
这种结构改变了传统数据中心的供电逻辑。过去是“集中供电+分发”,现在逐渐变成“高压输入+本地转换”。
电源系统不再只是基础设施的一部分,而是与计算节点深度耦合。如果转换器不靠近最终的6V到核心级,就会出现明显的功率损耗。这实际上给整个行业划定了一条技术边界——电源必须跟着算力走。
从器件层面看,这种变化还带来了另一个连锁反应。
电压从12V下降到6V之后,可以使用更低耐压的FET,从而降低导通电阻,提升电流能力。按照TI的说法,在相同芯片面积下,电流能力可以提升约30%,同时效率也会更高。这对于动辄数千安培的供电场景来说,是一个非常关键的优化。
这条路径并不会一夜之间完成。现实中,大量数据中心仍然运行在48V架构之上,尤其是已经建成的设施,很难直接重构。
因此,未来一段时间内,新旧架构会同时存在。一部分新建AI数据中心会直接采用800V体系,而传统数据中心则通过局部改造逐步过渡。
这种“并行演进”的状态,也让行业路径变得不那么确定。有的厂商选择从800V降到12V作为中间步骤,有的则尝试直接跳到6V。不同方案之间,还在不断试探和调整。
从更宏观的角度看,这场围绕800V直流的竞赛,并不只是电源技术的升级,而是算力基础设施的一次系统性重构。
GPU功率持续上升,带动电源、电网接入、散热体系同步变化。每一个环节都在向更高密度、更低损耗的方向推进。
小结
可以看到,电源不是一个“配角”,它开始决定系统能否稳定运行,也影响着算力成本的上限。
热门跟贴