AI(人工智能)不断向前,作为AI三驾马车之一,算力需求始终如影随形。

近日,财经记者走访了河南郑州多家服务器厂商、大模型公司和算力中心。在走访中,记者发现,液冷技术正被算力行业青睐,出于价格成本等原因暂未全面推行,不少算力中心仍是液冷与风冷“两条腿走路”。另外,超级计算和量子计算均有望进入商业算力供给体系。只不过,量子计算商业化仍需等待,超级计算地方中心已能够实现日常50%左右的利用率。

在“东数西算”工程下,河南正在打造中部算力高地。9月27日至29日,2024中国算力大会将落地郑州。据河南省通信管理局党组成员、一级巡视员孙力透露,中国算力平台(河南)将在本届算力大会上正式开通,算力规模达到4.2EFLOPS(floating-point operation per second,每秒浮点运算次数)。

液冷成行业趋势,服务器只奔着某个单点方向前进未必成功

光模块、AI服务器、AI芯片、交换机、液冷设备组成AI算力五大硬件设备。基于AI训练、推理和应用深入产生的算力需求,AI服务器将迎来高速增长时期。市场研究机构TrendForce集邦咨询预估,2024年AI服务器出货量将达167万台,年增长率为41.5%,产值将达1870亿美元,占整体服务器高达65%。

记者在走访中观察到,不少AI服务器厂商将提供定制大模型或相关服务作为新的业务增长点。暴雨信息攻坚克难开发了自己的大模型,并且在云上增加一层操作系统对大模型进行调优,试图通过“软+硬”的模式迅速占领优质市场。

通常,AI服务器采用“CPU+加速芯片”的架构形式,可分为:CPU+GPU、CPU+FPGA、CPU+ASIC等混合架构,在进行模型训练和推理时效率更高。由于散热需求强烈,CPU+GPU的服务器也逐步采用液冷制冷方式。

与传统服务器采用的风冷技术相比,液冷技术具有高效散热、节能降耗等优势,现已成为服务器行业发展趋势。2023年,暴雨服务器就率先喊出“All in 液冷”;中国移动、中国电信、中国联通三大运营商联合发布《电信运营商液冷技术白皮书》并提出将在2025年开展液冷技术规模应用,实现50%以上数据中心项目应用液冷技术。

暴雨公司工作人员在讲解液冷设备工作流程。财经记者 龙静 摄
打开网易新闻 查看精彩图片
暴雨公司工作人员在讲解液冷设备工作流程。财经记者 龙静 摄

未来国内服务器厂商是否可能凭借液冷技术实现生态位的改变?

对此,暴雨技术负责人,在接受财经记者采访时表示:行业在发展过程中可能涌现新的变化、客户需求和技术路径,企业向某个单点方向走未必能保证成功。“企业需要坚定地坚持业务战略,才能在各种变化下快速适应转化,实现突破。”

“目前液冷产业推广过程中面临的一个重要课题是如何在液冷数据中心的建设成本和投资回报率,以及运维安全性上做到均衡。”IDC中国服务器市场研究经理辛一分析称,这需要产业相关组织、机构、企业及合作伙伴在标准制定、成本控制、技术创新等方面共同努力,加大投资和配套设施建设力度。

他预计,液冷行业将迎来“刚需”放量元年。根据IDC数据,互联网行业是2023年国内液冷服务器市场最大买家,占整体市场的46.3%,有望在未来几年持续加大采购力度;此外,电信运营商、泛政府用户也是未来液冷需求的主要来源。

随着IT技术更新发展以及大型数据中心的建立,暴雨相信液冷最终会成为算力行业的新的业态,暴雨已经做好了迎接放量元年的到来。