打开网易新闻 查看精彩图片

2024年买8张H100配个32核CPU的老板,可能正在经历一种精致的浪费——GPU利用率不到三成,账单却按满负荷在跑。

佐治亚理工学院3月发布的技术论文,用一组测试数据把这种「豪车配单缸发动机」的荒诞场景量化了。研究团队发现,多GPU大模型推理的瓶颈根本不在显卡本身,而是CPU没跟上节奏。当CPU核心数不足时,系统会出现内核启动延迟、通信阻塞、分词耗时激增等问题,直接导致GPU空转。

「GPU饱和」是个伪命题

「GPU饱和」是个伪命题

论文作者Euijun Chung团队测试了现代LLM推理和服务负载,发现一个反直觉的现象:系统性能下降时,GPU往往远未达到算力上限。真正卡住脖子的是控制端——CPU来不及给GPU派活,显卡只能干等。

这种「CPU饥饿」症状表现为三类典型故障。内核启动延迟,即CUDA操作从CPU端发起的时间被拉长;通信阻塞,多卡之间的数据同步因为CPU调度不过来而停滞;分词延迟,文本预处理阶段CPU算力不足拖慢整个流水线。

研究团队指出,即便采用了进程级隔离、CUDA Graphs等现代GPU端优化技术,这些瓶颈依然存在。换句话说,软件层面的精巧设计,掩盖不了硬件配置的头重脚轻。

打开网易新闻 查看精彩图片

加CPU比加GPU便宜47倍

加CPU比加GPU便宜47倍

论文算了一笔云厂商不会主动告诉你的账。以AWS p4d.24xlarge实例为例,8张A100的时价约为32.77美元,而额外增加CPU核心的边际成本几乎可以忽略——同实例规格下CPU从48核提升到96核,价格涨幅不足2%。

测试数据显示,在中等推理负载下,CPU配置不足的集群频繁出现请求超时。而将CPU资源配足后,首token延迟(TTFT)在不同配置下降低了1.36到5.40倍,且无需增加任何GPU。

5.4倍的差距意味着什么?同样处理一批长文本请求,配好CPU的集群响应时间在用户可接受范围内,CPU饥饿的集群则直接超时失败。用户体感是「服务挂了」,实际上是「CPU没吃饱」。

为什么行业集体踩坑

为什么行业集体踩坑

这个盲区有其历史成因。大模型训练时代,算力焦虑集中在GPU数量上,CPU被默认为「能亮机就行」的配角。推理场景爆发后,这种惯性配置思维被延续下来——买卡时一掷千金,配U时精打细算。

打开网易新闻 查看精彩图片

论文作者Hyesoon Kim在讨论中指出,现有推理框架的优化文档很少强调CPU配比。开发者的注意力被CUDA内核、张量并行、流水线并行等「性感」话题吸引,控制端的资源规划成了无人区。

更隐蔽的问题是监控盲区。GPU利用率指标在仪表盘上光鲜亮丽,CPU瓶颈导致的调度延迟却分散在各个子系统里,难以被常规监控捕获。团队花了大量时间才定位到,某些「GPU利用率低」的故障根因其实是CPU调度队列堆积。

配置建议与未解问题

配置建议与未解问题

论文给出了一个粗略的经验法则:对于基于Transformer的LLM推理,CPU核心数与GPU数量的比例建议不低于6:1,高并发场景下8:1更为稳妥。以8卡A100/H100集群为例,这意味着至少48-64核的CPU配置。

但这个数字并非万能。模型架构差异(MoE vs Dense)、序列长度分布、批处理策略都会影响CPU的实际负载。研究团队承认,当前工作主要基于特定硬件和软件栈的测试,不同云厂商的虚拟化开销、不同推理框架的实现细节都可能改变结论。

一个悬而未决的问题是:当CPU核心数继续增加,收益曲线何时出现拐点?论文测试范围内,更多CPU始终带来正收益,但边际递减的规律必然存在。找到这个甜点区,需要更多生产环境的长期观测数据。

论文链接已公开在arXiv:2603.22774。对于正在规划推理集群的工程师,作者的建议很直白:下次扩容时,先检查CPU配比再下单GPU——毕竟加U的钱,可能还不到一张卡的首付。

你的集群CPU配了几核?有没有遇到过GPU利用率莫名低迷、加卡也不见效的情况?