关注AI算力、产业趋势的朋友,大家应该都有一个共识:AI大模型迭代越来越快,算力需求水涨船高,但压在很多算力项目头上的核心难题,从来都不只是芯片缺口,而是居高不下的电费成本,甚至不少项目因为能耗超标无法落地。今天就和大家客观地拆解,当下AI算力领域真正落地的“省电革命”——液冷+高压直流技术,以及背后真实可查的全产业链机会。

打开网易新闻 查看精彩图片

先给大家一组来自行业公开的真实数据:当前主流AI训练集群的单卡功耗普遍突破700W,单机柜功率密度动辄30kW以上,而传统风冷技术的散热上限仅15kW,完全无法适配高功耗算力需求;同时传统风冷数据中心的PUE值(数据中心能源使用效率)普遍在1.4-1.6之间,简单来说,每花1度电给AI芯片运算,就要额外花0.4-0.6度电用来散热。而根据国内最新政策要求,2026年新建大型、超大型数据中心PUE值必须严格控制在1.15以内,传统风冷技术已经触到了性能天花板。

这就是液冷技术爆发的核心逻辑,绝非市场炒作,而是实打实的刚需。目前行业规模化商用的冷板式、浸没式液冷技术,已经可以将数据中心PUE值稳定控制在1.03-1.15之间,相比传统风冷,散热环节直接节电30%-50%。我们按一个10MW的标准智算中心测算,仅散热节电一项,一年就能省下超1800万元的电费成本,同时还能大幅延长芯片的使用寿命,降低运维成本。更关键的是,液冷可以轻松支撑单机柜50-200kW的功率密度,完美适配下一代更高功耗的AI芯片,目前已经成为头部云厂商、算力运营商新建智算中心的标配选项。

打开网易新闻 查看精彩图片

而和液冷技术形成“黄金搭档”的,正是800V高压直流配电技术。传统交流配电方案需要经过多次交直流转换,每一次转换都会产生3%-5%的电能损耗,全链路下来,配电环节的无效损耗极高。而高压直流方案可以实现从变电站到机柜的“直达供电”,大幅减少转换环节,将配电系统整体效率提升5%-8%,线路损耗直降30%。更重要的是,高压直流与液冷系统的CDU(冷量分配单元)驱动需求天然适配,实现“电冷同源”,大幅提升整个算力中心的运行稳定性,目前英伟达的新一代智算中心标准,已经将800V高压直流列为推荐方案,行业规模化落地速度远超预期。

从真实的产业数据来看,这场“省电革命”已经进入全面爆发期。2024年国内液冷数据中心渗透率仅为14%,2026年行业普遍预计渗透率将突破40%,对应全球市场规模接近150亿美元。整条产业链的机会清晰且真实,上游包括冷却液、核心散热元器件、高压功率器件,中游包括冷板/CDU核心单元、高压直流电源模块、系统集成与机柜配套,下游则是智算中心建设、运维服务等环节。其中,随着海外厂商退出部分核心材料市场,国产替代的窗口已经打开,国内厂商在核心技术、规模化交付能力上都已经实现了实质性突破。

最后想和大家说,AI算力的发展,从来都不只是芯片和算法的独角戏,底层基础设施的技术迭代,才是行业长期稳健发展的基石。

免责声明:本文内容仅为行业信息分享与个人观点,仅供参考,不构成任何投资建议与投资推荐,不涉及任何投资相关引导。本文所用素材均来自公开渠道,如有侵权,请联系本人立即删除。