AI服务器现在最怕的不是性能不够,而是算力堆上去了,热量压不住。
尤其是大模型训练、智能驾驶、高校科研、具身智能这些场景,GPU一旦长时间满载,散热系统就不再是配角。很多时候,决定一套AI集群能不能稳定跑下去的,不只是服务器本身,还有背后的液冷系统、网络连接和整体运维能力。
这次第七届深圳国际人工智能展览会上,朴赛带来了自己的液冷CDU解决方案,同时展示了智慧金融、智能驾驶、高校科研、具身智能四大AI解决方案,以及四台主力服务器产品和IB交换机。说白了,这次朴赛不是只拿出一台设备,而是把“算力、散热、网络、方案”这一整套AI基础设施能力摆到了台前。
更值得关注的是,在本届展会同期评奖活动中,朴赛获得了“全球AI生态基石大奖”。这个奖项背后,核心指向其实很明确:AI产业越往深处走,底层基础设施的重要性就越突出。服务器负责提供算力,交换机负责打通集群连接,而液冷CDU则负责把高密度算力产生的热量稳定带走。
CDU为什么越来越重要?
很多人一听CDU,可能觉得这是一个比较偏机房、偏工程的设备。但如果放到AI服务器集群里,它其实就是液冷系统的“调度中心”。
CDU负责把冷却液精准、稳定地送到服务器内部的冷板,再把GPU、CPU这些高热源产生的热量带走。它不仅要控温,还要保证冷却液洁净、循环稳定、系统不间断运行。对于AI数据中心来说,CDU的价值不只是“降温”,而是保障高密度算力长期稳定运行,同时帮助机房降低PUE。
简单点说,风冷时代大家比的是风扇和风道;到了AI高密度算力时代,真正影响稳定性的,开始变成液冷系统的设计能力。
朴赛这台液冷CDU,重点不是参数堆得多,而是稳定性设计
从通稿信息看,朴赛这次展示的是一台机架式液冷CDU,额定换热量达到10kW,面向AI服务器集群的高算力散热需求。这里最值得注意的不是单一换热参数,而是它的冗余和运维设计。
这台CDU内部搭载两台并联循环水泵,采用一用一备方案。正常运行时主泵负责冷却液循环,一旦主泵出现异常,系统可以自动切换到备用泵,保证液冷循环不中断。对于7×24小时运行的AI训练集群来说,这个设计很关键。因为散热一旦中断,影响的不只是单台服务器,而可能是整组训练任务、业务连续性甚至数据安全。
控制层面,这台CDU采用PLC控制方案,支持更稳定的温控响应和集中管理。自动补液设计也降低了人工维护压力,不需要额外配置补液水箱,设备内部容积控制在10L以内,结构更紧凑,也有助于降低漏液风险。
这类设计其实很符合AI机房的真实需求:不是单纯追求某个参数好看,而是要减少人工干预,降低故障风险,让系统能够长时间稳定运行。
实测数据比参数更有说服力
液冷设备说自己能压温度并不稀奇,关键还是要看实测。
通稿里提到,朴赛在展会前进行了多轮散热测试。测试环境为室温25.5℃、湿度61.8%RH,使用8张600W GPU,并让GPU保持100%满负载运行,再观察不同风扇转速下的散热表现,最终选取65秒至85秒区间的稳态数据。
这组测试条件比较接近高负载AI集群的真实状态。8张600W GPU全部满载,热量压力并不低,如果散热系统不够稳,温度曲线很容易快速抬升。
从结果看,风扇30%转速时,GPU平均温度为59.88℃;风扇40%转速时,平均温度降至56.13℃;风扇50%转速时,平均温度为54.63℃;风扇100%转速时,GPU平均温度进一步降至50.88℃。
这个数据有两个信息点。第一,在30%低转速下,GPU平均温度依然只有59.88℃,这说明系统不需要一上来就把风扇拉满,也能维持比较安全的温度区间。第二,随着风扇转速提升,温度下降趋势比较清晰,说明散热系统的响应是有效的,不是单纯靠高转速硬压。
对机房来说,这一点很现实。低转速能压住温度,就意味着日常运行可以兼顾能耗、噪音和设备寿命;需要更强散热时,系统也有继续释放的余量。
朴赛展示的不是单点设备,而是一套AI基础设施方案
现在做AI基础设施,已经不是卖一台服务器、卖一个散热设备那么简单。客户真正关心的是:服务器算力够不够,GPU满载稳不稳,液冷系统会不会掉链子,网络延迟能不能支撑集群协同,后期运维复杂不复杂。
这也是朴赛此次参展比较值得关注的地方。它展示的是从服务器算力底座,到液冷CDU散热保障,再到IB交换机网络连接,以及面向智慧金融、智能驾驶、高校科研、具身智能等行业的解决方案。换句话说,朴赛想强调的不是单个产品,而是“算力—散热—网络—方案”的完整交付能力。
对于正在建设智算中心、AI训练集群或者边缘计算节点的用户来说,这种方案化能力比单独买硬件更有价值。因为AI基础设施真正难的地方,不是把设备买回来,而是让它们长期稳定、协同、高效地跑起来。
结语:AI算力竞争,底层散热正在变成关键能力
过去大家谈AI硬件,更多关注GPU型号、服务器配置和算力规模。但现在行业已经进入另一个阶段:算力堆得越高,对散热、供电、网络、运维的要求就越高。尤其是液冷CDU这类设备,表面看是散热系统的一部分,实际却是AI集群稳定运行的底座之一。
朴赛这次在深圳人工智能展上展示液冷CDU,并公开8张600W GPU满载场景下的散热实测数据,传递出来的信号很明确:AI基础设施竞争,已经不只是比谁的服务器更强,而是比谁能把高密度算力更稳定、更高效地跑起来。
从这个角度看,朴赛此次亮相的价值,不只是一台CDU产品,而是让外界看到它在AI算力基础设施上的完整方案能力。对于未来智算中心和AI集群建设来说,这类稳定、可运维、可交付的底层能力,可能会越来越关键。
热门跟贴