你敢信么,一台AI服务器的发热量,已经等于一个小型暖气片。
你家卧室的暖气片,额定功率大概是1000到1500瓦。
英伟达最新一代Rubin Ultra GPU,单颗芯片功耗2500瓦以上。
一台装满72颗GPU的AI服务器机柜,总功耗超过100千瓦——相当于你们小区100套房子同时开暖气。
这些热量,必须被带走。否则芯片会在几秒钟内烧毁。
过去,数据中心用风扇和冷风把热量吹散——就像给服务器吹电风扇。这个方案在芯片功耗还不算离谱的年代勉强够用。但当单颗芯片的功耗从700瓦(H100)跃升到1200瓦(GB200)、1400瓦(GB300)、2500瓦(Rubin Ultra),传统风冷已经到了物理极限——空气的热传导效率太低,风扇吹得再猛,也带不走这么多热量。
风冷时代,正在终结。
这不是一个渐进的过渡,而是一个被硬件迭代强制触发的拐点。
英伟达在2026年GTC大会上正式确认:下一代Rubin平台实现100%全液冷覆盖,采用第三代完全无缆化设计,旗舰产品Vera Rubin NVL72机架式系统无缆化、无风扇。
翻译成人话:以后英伟达的顶级AI服务器,风扇这个零件,直接消失了。
一个数字,让你感受这个赛道有多大
2024年,全球数据中心液冷市场规模约19.6亿美元。
2032年,这个数字预计将达到211.4亿美元,8年复合增速33.2%。
这还只是全球数字。中国这边:IDC预测2025年中国液冷服务器市场规模33.9亿美元,同比增长42.6%,2025到2029年复合增长率48%,2028年市场规模有望突破162亿美元。
更直观的数字:摩根士丹利测算,英伟达GB300 NVL72机架级AI系统,单单液冷散热组件的价值就高达49860美元(约合人民币36万元),比上一代GB200系统高了近20%。而下一代Vera Rubin NVL144平台,单个机柜的冷却组件总价值将达到5.57万美元,比GB300再涨17%。
芯片功耗每升一代,液冷组件的单价就涨一次,市场总量也随之扩大。
这是一条斜率极陡的增长曲线,而且触发这条曲线的物理规律,没有人能改变。
液冷不是一个技术,是三条赛道
很多人以为液冷就是"用水冷芯片",其实这个赛道内部的技术路线分化极其复杂,每条路线对应着完全不同的供应商格局和投资逻辑。
第一条:冷板式液冷——当下的主流,占存量市场80%
冷板贴在芯片表面,冷却液在冷板内部的微通道里循环流动,把热量带走。芯片本身不与液体直接接触,改造成本相对可控,兼容现有数据中心设施。
Rubin平台的核心技术突破就在这里——微通道冷板(MLCP),将流道尺寸缩小至微米级,冷却液直接流经芯片表面,散热效率大幅提升。这对制造工艺(激光刻蚀、焊接密封)要求极高,是液冷产业链上技术壁垒最高的环节之一。
更进一步的是材料升级:散热材料正从铜向金刚石/铜复合散热基板升级,热导率是纯铜的2倍以上。液态金属替代传统导热膏,也已获英伟达官方认证,2026年将迎来规模化放量。
第二条:浸没式液冷——超算的终极方案,PUE逼近1.0
整个服务器浸泡在特殊冷却液里,散热效率最高,PUE(电源使用效率)可以逼近理论极限1.0——意味着几乎所有电能都用来计算,没有浪费在散热上。
问题是改造成本高,现有数据中心难以快速切换,且冷却液本身(特种硅油、氟化液)的供应链还不成熟。但对于新建的AI超算中心,浸没式液冷正在成为优先选项。
第三条:ASIC推动的第二增长曲线
过去液冷需求的增长,主要由英伟达GPU驱动。但2026年开始,谷歌TPU、亚马逊Trainium、微软自研ASIC……这些定制化AI芯片开始批量出货,谷歌和AWS的ASIC合计出货量预计2025年达到300万片以上。
ASIC的散热需求同样旺盛,但它的供应链不像英伟达那样高度集中,选择相对开放——这给了国内液冷厂商一个绕过英伟达壁垒、切入全球顶级供应链的历史性窗口。
中国液冷:从代工到自主的艰难跨越
现实情况是:英伟达体系供应商格局仍以台资、欧美厂商为主,国内厂商在该体系品牌化进展偏缓。大陆液冷领域多数企业,目前作为台资厂及欧美厂商的代工厂参与英伟达供应链——赚的是加工费,不是品牌溢价。
但有几家已经跨过这道门槛:
领益智造(002600.SZ)旗下子公司立敏达,是大陆少数进入英伟达RVL名单的企业,为GB200、GB300提供冷板、Manifold、UQD、Busbar等产品,已进入稳定批量交付阶段,实现了柜内液冷组件的全覆盖。
英维克(002837.SZ)凭借全链条液冷方案储备,已进入英伟达GB200/300 NV72的RVL名单;同时在谷歌CDO体系中取得一定进展,是横跨英伟达和谷歌两个生态的稀缺标的。
国内厂商直接切入欧美CSP及英伟达核心供应链难度较大,需要较长时间的技术积累与资质认证。但北美数据中心市场约40%的份额来自非CSP的第三方中立数据中心,这类数据中心要求与CSP及英伟达标准相符,但采购流程相对灵活——这是国内厂商向品牌供应商转型的重要突破口。
另一条路,是国产算力体系。华为2025年推出CloudMatrix 384超节点,已销售300余套;将推出的Atlas 950 SuperPoD超节点,算力规模8192卡,预计2026年四季度上市。国内已有中科曙光、阿里、百度、沐曦、浪潮等9家厂商加入超节点之争。国产算力芯片出货高增,将给国内液冷市场带来与英伟达体系平行的独立增量。
政策也在推一把
这个赛道有一个很多人没注意到的政策催化剂。
欧盟从2025年1月起,要求所有数据中心强制测量并公开PUE数据。2026年7月起,现有数据中心PUE必须低于1.5,2030年进一步降至1.3以下;新建数据中心自2026年起PUE必须低于1.2。
传统风冷数据中心的PUE普遍在1.4到1.6之间,液冷方案的PUE可以做到1.1到1.2,浸没式液冷逼近1.0。
欧盟的PUE强制合规要求,等于给液冷改造下了行政命令——不是"你可以考虑",是"你必须达标"。这个合规需求将在2026到2030年间释放出一波数百亿美元规模的改造订单,且与AI需求完全叠加,两股力量共同推动液冷渗透率从2024年的约14%向2026年的30%跃进。
微软CEO最近说的一句话,道出了这个赛道的底层逻辑:他们当前面临的不是算力过剩,而是数据中心的供电和物理空间已接近极限,大量AI芯片只能滞留在库存中,无法"通电运行"。液冷方案在电力消耗上的"节流"效应,不只是散热问题,是在帮数据中心解决电力瓶颈。
当液冷能让同一个供电容量里塞进更多的GPU,它就不只是散热设备,它是AI算力的倍增器。
说在最后
液冷这个赛道,有一个让人放心的底层逻辑:
它的需求,不来自政策补贴,不来自市场炒作,来自芯片功耗的物理规律。只要AI还在进化,芯片功耗就会继续升,液冷就会继续被需要。
从Rubin Ultra的2500瓦,到下一代Feynman架构预期的5000瓦+——这条功耗曲线往哪个方向走,液冷的市场就往哪个方向走。
这条曲线,没有人能改变。
风冷时代的终结,不是一个关于散热的故事,是一个关于算力边界被重新定义的故事。而在这个故事里,液冷是唯一的基础设施。
热门跟贴