人工智能 (AI) 加速服务器的需求推动销售额增长。制造商持续面临供应链问题,需求被压抑。

HPE首席执行官 Antonio Neri 表示,公司有几笔交易从第一季度滑到了未来几个季度,因为客户需要更长的时间来准备数据中心空间,准备好电源和冷却。

HPE 已经建立了一批基于 GPU 的服务器,但客户需要时间来接受这些系统。截至第一季度末,积压金额为 30 亿美元。

HPE 客户配备 GPU 的服务器需要 20 多周的交货时间。客户正在采用配备上一代 Nvidia GPU(H100 架构)的服务器。现在大部分需求来自 H100。HPE将推出 Grace Hopper H200 和其他产品。这些将包括AMD 最近推出的GPU,即 Radeon Instinct MI300X。

戴尔科技集团还发现,对 GPU 驱动的服务器的需求继续超过供应。戴尔科技集团副董事长 Jeffery Clarke 表示,人工智能优化的服务器订单环比增长近 40%。戴尔交付8 亿美元的人工智能优化服务器,积压订单几乎环比增加一倍,本财年结束时的价值为 29 亿美元。

与 HPE 一样,戴尔的大多数客户仍处于人工智能之旅的早期阶段。

除了 GPU 之外,人工智能还对企业存储提出了新的要求。Clarke表示,构建人工智能系统的组织,最初使用基于文本的数据训练人工智能模型。新的PowerEdge F710 和 210 存储产品可提高高并发、延迟敏感型工作负载的性能。

Dell'Ora Group 的一份报告指出,半导体热设计能力的提高以及大型语言模型和生成式人工智能应用程序的出现正在导致机架功率密度显着增加。Dell'Ora 研究分析师 Lucas Beran 表示,这正在导致从基于空气的热管理系统向液体冷却的转变。空气冷却历来支持高达 20kW/机架的机架密度,而液体冷却则能够支持高达 100kW+/机架的机架功率密度。

每台加速服务器的功耗高达 6kW。这表明,要使用数据中心现有的空气冷却基础设施,每个机架只能安装三台 6kW 人工智能加速服务器,因此部署这些服务器必须重新设计其数据中心以满足冷却要求。