昨晚的一份业绩预告,让液冷行业迎来“寒冬”。液冷龙头【英维克】一季度利润跌了八成,大跌预期,究竟是为什么?

其实,说白了就是三个原因:一是国内干液冷的厂家一下子冒出来太多,价格战打得凶,毛利率被压得厉害;二是公司为了抢订单拼命扩产、提前备货,费用先砸出去了,但收入还没跟上,利润自然难看;三是回款慢、坏账计提也多。

总的来讲,液冷这个赛道的逻辑没坏,需求端的大方向没问题,但行业从炒预期进入业绩兑现期后,会迎来第一轮残酷的优胜劣汰。烧钱扩张、抢份额的阶段,利润表难免失真;哪家能率先把海外大订单兑现成真金白银的营收和利润,才是下一个阶段的关键。

下面就来吃透【液冷】产业链4大核心部件!

01 产业链全景图

打开网易新闻 查看精彩图片

02 【液冷】简介

液冷,就是用液体代替空气作为散热介质,通过液体与服务器发热部件进行热交换,把热量带走,让服务器维持在安全的工作温度范围内。液冷属于底层温控技术,与之相对的是传统风冷

打开网易新闻 查看精彩图片

液冷可以按照冷却液和服务器的接触方式,分为间接冷却与直接冷却两大类。间接冷却里最常见的是冷板式液冷,根据冷却液是否发生相变,又可以分为单相冷板和两相冷板。

直接冷却主要包括浸没式和喷淋式,其中浸没式同样按照介质是否相变,分为单相浸没和相变浸没。

据数据显示,当前主流液冷方案中,冷板式占比达到 91%,浸没式占 8%,喷淋式占 1%。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

液冷在散热效率、能耗成本、空间利用上优势十分突出,相比传统风冷更加高效、节能、经济。

能耗方面,液冷可以有效降低数据中心 PUE,减少散热系统的电力消耗。以一个 10MW 规模的数据中心为例,如果将 PUE 从 1.5 降至 1.2,每年可节约用电 2628 万千瓦时,按照 0.7 元 / 度的电价计算,每年可节省电费约 1840 万元。

在设备使用寿命上,电子元器件的工作温度每降低 10℃,寿命大约可延长一倍。采用液冷的服务器年均故障率约为 0.5%,远低于风冷的 2%,维修成本可下降 75%。

在空间与综合成本方面,液冷单机柜功率密度可达 50kW 以上,而传统风冷机柜通常不超过 15kW。在提供同等算力的前提下,液冷可节省约 60% 的机房占地面积。

根据 Uptime Institute 研究,采用液冷的数据中心五年总拥有成本(TCO)比风冷低 18%-25%,在高密度算力场景下这一差距会更加明显。

打开网易新闻 查看精彩图片

随着 AIGC 技术快速发展,数据中心正向高密度算力方向升级。主流计算芯片功耗持续攀升,单位面积产生的热量已接近风冷散热的极限。若继续沿用风冷方案,极易出现芯片局部过热问题,提升硬件失效风险,液冷因此成为下一代数据中心的核心技术方向。

数据中心制冷技术逐渐向液冷发展

打开网易新闻 查看精彩图片

03 核心价值量拆解

目前,冷板式液冷凭借对现有数据中心良好的兼容性和较低的改造成本,在液冷市场占据主导地位。

相比之下,浸没式液冷改造成本高昂、运维复杂,规模化推广仍受较大限制;喷淋式液冷则技术成熟度较低,实际落地案例有限。

展望未来,随着冷却液成本下降和技术体系成熟,散热优势显著的浸没式液冷,有望在高算力场景中成为主流方向。其中,相变浸没式液冷凭借更高的散热效率,或将成为液冷技术的终极演进路径。

在冷板式液冷的产业链中,上游核心高价值环节集中在四大部件:冷板、CDU(冷却液分配单元)、Manifold(歧管)和快接头(UQD)。

以英伟达 GB300 液冷机柜为例,冷板价值占比 41%,CDU 占比 32%,UQD 占比 14%,Manifold 占比 13%,这四项是产业链价值量最高的零部件。

打开网易新闻 查看精彩图片

这四大核心部件的平均毛利率在 25%-30% 以上,其中 CDU 和快接头这类技术壁垒更高的环节,毛利率可达 40%-60%。

打开网易新闻 查看精彩图片

有兴趣可进入星球,获取更多资料

04 上游核心-液冷板

液冷板,是冷板式液冷系统里直接干活的核心部件。它直接贴在 GPU、CPU 这类高功耗芯片的表面,靠内部循环的冷却液,把芯片产生的热量直接高效地带走,散热效率远高于传统风冷。

液冷板的材料选择,直接决定了它的导热性能、重量、成本和加工难度,是上游环节的关键变量。位置处于如图:

打开网易新闻 查看精彩图片

04-1、市场规模

全球冷板式液冷市场正处于高速增长期,未来十年的扩张势头非常明确。

2024 年,市场规模约 20 亿美元;预计到 2034 年,规模将达到 250 亿美元,十年间增长超过 10 倍。

这意味着,冷板式液冷技术将在数据中心、高性能计算、新能源等领域快速普及,市场需求持续走高,行业整体处于高速发展阶段,增长潜力强劲。

打开网易新闻 查看精彩图片

04-2、材料对比

液冷板现在主要用三种材料:铝、铜和新型复合材料。

铝的优势是轻、便宜、还不容易生锈,所以用得最多。

铜导热能力比铝强得多,但又贵又重,只在散热要求特别高的高功率芯片上用。

但现在问题来了:芯片功耗越来越夸张,从现在的 1400W,很快就要冲到 2000W-4000W。就算是纯铜冷板,也扛不住这么大的热量,会出现中心区域 “热量堆死” 的情况。这种问题,光靠把冷却液流速加快,是解决不了的。

所以行业的出路,就是往复合材料升级。把金刚石、石墨烯、碳化硅这些导热超强的材料,嵌进铜或铝里,做出导热能力更强的复合冷板,来应对未来超高功耗芯片的散热压力。

比如双鸿科技,就计划 2026 年先商用石墨烯铜,之后再推广金刚石铜 / 铝这类更高端的材料。

打开网易新闻 查看精彩图片

04-3、技术发展新方向

MLCP(微通道水冷板)是冷板的升级技术,它把传统芯片上的金属盖和液冷板整合成了一个单元,冷却液可以直接流到芯片表面散热。

传统冷板式液冷的传热,像过关卡一样,层层受阻。热量从芯片出来,要穿过硅衬底、金属互连、多层导热材料(TIM)、封装盖板,最后才到冷板,经过至少 4-5 层界面。每一层都会阻碍热量传递,导致热量堆积,形成局部热点,这也是限制芯片输出功率的核心瓶颈。

MLCP 方案则是直接打通了 “任督二脉”。它取消了独立的散热盖和第二层导热材料(TIM2),将路径从 “四站式” 精简为 “三站式”。热量只需经过第一层导热材料(TIM1),直接进入集成微通道的盖板(MCL)被冷却液带走。这种设计从根源上消除了约 50% 以上的接触热阻,散热效率实现质的飞跃。

打开网易新闻 查看精彩图片

MLCP它的核心优势有两点:

打开网易新闻 查看精彩图片

这种高性能冷板的单价是传统冷板的 3-5 倍,毛利率也更高。以英伟达 GB300 机柜为例,一个机柜需要 108+18 块 MLCP,单块报价约 800-900 美元。

和它类似的还有微软的微流体冷却技术,把冷却液通过发丝般细的微通道直接送到芯片内部,散热效率是现有方案的 3 倍,能把芯片温升降低 65%。

打开网易新闻 查看精彩图片

04-4、竞争格局

液冷板市场参与者众多,目前主要由台系企业(奇鋐、双鸿、酷冷至尊)和欧美厂商(CoolIT Systems、Boyd Corporation)主导。

大陆的液冷板配套厂商,主要包括英维克、飞荣达、科创新源、中石科技、川环科技、同飞股份、思泉新材、立敏达等。

05 上游核心-CDU

CDU 是液冷数据中心的核心组件,相当于液冷系统的 “心脏” 和 “控制中枢”。它的核心任务,是把冷却液安全、高效地分配到每个冷板和机柜,同时实现温度控制、流量管理和系统保护。

CDU 内部,液冷泵组和换热器是两大关键部件:

泵组是系统的动力源,驱动冷却液在服务器侧的环路里循环流动。

换热器则负责把冷却液从服务器吸收的热量,传递给机房侧的冷却水,完成热量的 “接力” 与排出。

打开网易新闻 查看精彩图片

按照部署方式,CDU可以分为集中式和分布式,区别特点如下:

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

05-1、市场规模

根据 QYResearch 数据,2024 年全球数据中心 CDU 市场规模约为 9.7 亿美元,预计 2025 年将增至 13.37 亿美元,同比增长 37%;到 2031 年市场规模将达到 37 亿美元,2025-2031 年的年均复合增长率(CAGR)为 18.5%,整体呈现高速增长态势。

打开网易新闻 查看精彩图片

05-2、竞争格局

液冷 CDU 市场目前呈现出高度集中的头部主导格局。

2025 年,维谛(Vertiv)占据最大市场份额,领先优势明显;CoolIT 紧随其后,竞争力强劲;台达和艾美达也占有一定份额,分别代表了传统电源厂商与专业液冷解决方案提供商的布局。

其余企业合计占比较小,说明头部厂商凭借技术积累和客户资源形成了较高的行业壁垒。整体来看,液冷 CDU 市场正朝着专业化、规模化方向发展,头部企业的先发优势十分显著。

打开网易新闻 查看精彩图片

05-3、国内的格局如下:

打开网易新闻 查看精彩图片

06 上游核心-快接头(UQD)

UQD 快速接头,就是液冷系统里的 “快插水管接头”,专门用来接管路和冷板、歧管和机柜,一插就能连上,还能保证冷却液快速、安全地流过去,不会漏。

打开网易新闻 查看精彩图片

它是英特尔主导的 OCP 标准里的核心部件,目标就是给液冷系统提供通用、不漏水的快速连接方案。

现在 AI 算力需求越来越大,GPU 功耗从 700W 直接干到 1000W 以上,传统风冷根本压不住温度,液冷成了刚需,而 UQD 就是液冷里的关键一环,现在已经是数据中心热管理的核心技术之一了。

打开网易新闻 查看精彩图片

06-1、分类

UQD 系列含 UQD02 至 UQD08 四种标准型号,公称直径和流量随编号递增,分别适配低功耗基础液冷、数据中心服务器、高密度计算及大功率 GPU 集群与超算等高散热场景,全系列均遵循 OCP 标准以保证互操作性,并提供 ORB 螺纹、BSPP 螺纹及推入式软管连接等多种终端方案。

打开网易新闻 查看精彩图片

06-2、价值量

随着数据中心机柜功率升级,液冷散热模组对 UQD 的需求同步增长。以英伟达 GB200 NVL72 为例,其单台液冷机柜含 18 个计算托盘,每托盘配 6 对 UQD,单机柜总计 108 对计算单元用 UQD。

GB300 因机柜功率提升,全链路散热升级:GPU 冷板从 “双卡共用” 改为 “单卡独配”,单托盘冷板数量翻倍,UQD 用量同步升至每托盘 14 对,单机柜 18 个托盘对应 252 对 UQD。

测算显示,机柜方案升级后,单机柜 UQD 价值量达 7.7 万元,同比增幅 30%。

打开网易新闻 查看精彩图片

06-3、发展趋势--盲插式UQD

盲插式 UQD 无需精准对准即可自动连接,容错率更高且操作高效,适合空间紧凑、追求便捷的液冷场景;非盲插式 UQD 需精确对接,结构更简单但依赖操作技能。

打开网易新闻 查看精彩图片

盲插式 UQD 无需人工干预,运维效率高、人为失误少,适配高密度数据中心,可靠性更强;非盲插式需手动操作,对技术要求高,更适合成本敏感或低技术要求场景。随着数据中心向智能化演进,以及 AI 对运维连续性的要求提升,盲插式 UQD 将成为主流选择。

06-4、市场格局

UQD 液冷连接器市场目前由海外厂商主导,行业集中度较高,Staubli、Parker 等头部企业凭借先发技术优势占据全球及国内高端市场;国内厂商中航光电、英维克等起步晚但发展迅速,正依托国内需求红利快速追赶。

打开网易新闻 查看精彩图片

07 上游核心-歧管(Manifold)

Manifold(歧管)就是数据中心液冷系统里的 “总分流管”,功能类似把一根水管分成多路喷头的分配器,能把 CDU 送来的冷却液精准分到每个服务器的冷板,靠精密流道设计减少压力损失,让每个支路流量均匀,避免服务器局部过热。

打开网易新闻 查看精彩图片

07-1、制造工艺流程

Manifold 的制造门槛极高,涉及高精度加工、焊接和密封工艺,其性能直接决定液冷系统的散热、能耗、可靠性和维护成本,核心指标看内部流道粗糙度和接口平面度。

内部流道越光滑(Ra 值越低),流体阻力和能耗越小,否则易积垢堵塞;接口平面度越高,连接密封越可靠,可避免泄漏风险。选材与加工工艺是核心壁垒,通常采用不锈钢、铜合金等材料,经钻孔、深孔加工、焊接钎焊等多道工序,每一步都直接影响最终产品的性能与寿命。

打开网易新闻 查看精彩图片

07-2、市场格局

当前,市场竞争激烈,平均毛利率 30%—35%,其中定制化歧管毛利率超 35%,标准化产品约 30%。

国际供应商以双鸿、奇、台达电子等台湾厂商为主,大陆则有领益智造旗下立敏达,以及英维克、申菱环境、同飞股份等核心厂商。

打开网易新闻 查看精彩图片

下方扫码直接加入:

打开网易新闻 查看精彩图片