打开网易新闻 查看精彩图片

GitHub的提交量在3个月内涨了14倍。不是年度增长,是年化后的季度增速。

这个数字来自GitHub COO Kyle Daigle的推文,他贴出的图表显示:2024年底到2025年初,代码提交量曲线几乎垂直拉升。提交量是推理需求的粗糙代理指标——方向性上,这意味着编码智能体(Coding Agents) mainstream化后,推理算力需求正在以超出所有人预期的速度膨胀。

真实的缺口可能比14倍更大。

大量"氛围编程"(Vibe Coding)的新用户根本还没摸到GitHub的门。分布式版本控制对非工程师来说足够劝退,很多人连Git和GitHub的区别都搞不清。Cowork这类AI编程工具的使用量也完全没计入GitHub统计。换句话说,水面下的冰山远不止这些。

OpenAI Codex团队负责人Thibault Sottiaux最近也发推确认:AI公司正经历需求碾压供给的阶段。业内传闻Sora视频生成服务被关停,就是为了给其他任务腾挪算力——视频生成的计算密度,懂的都懂。

算力饥荒的连锁反应

算力饥荒的连锁反应

这不是某一家公司的困境。Anthropic的Claude Code开始收紧使用限额、频繁因算力问题宕机时,用户会本能地切换替代品——Codex、OpenCode、或者其他工具。迁移成本在免费/低价面前几乎为零,结果就是压力像击鼓传花一样转移,没有赢家。

所有人都在抢同一块 shrinking 的蛋糕。

去年OpenAI、Anthropic、微软们签下的"百亿级"算力采购协议,现在看像是集体误判。1000亿美元的GPU采购承诺不会凭空变出芯片——混凝土要浇筑、电力要并网、天然气轮机要订货、GPU要制造上架组网。这些环节全部产能紧张,熟练技工更是稀缺资源。

一个被低估的瓶颈:英伟达GB200的部署灾难。

打开网易新闻 查看精彩图片

这款最新芯片全系采用液冷,而非传统风冷。吉瓦级数据中心的液冷方案,此前几乎无人实践。功率密度骤升让电气工程难度指数级上涨,高端管路组件缺货,能搞定这套系统的技工比大熊猫还少。据多方消息,GB200的 rollout 进度远低于预期。

液冷:从卖点到拖累

液冷:从卖点到拖累

英伟达把液冷包装成技术跃迁,但对实际采购方来说,这是前所未有的基建噩梦。风冷时代的数据中心改造液冷,相当于把燃油车生产线强行切换成电动车——产线、供应链、工人技能全部推倒重来。

更棘手的是时间窗口。AI竞赛的节奏以周计算,但数据中心建设周期以年计算。2025年签的百亿订单,2027年能满负荷运转就算乐观。届时模型能力、应用形态、甚至竞争格局都可能换了一轮。

GitHub那14倍增速背后,是无数AI应用正在从"演示品"变成"生产工具"。编码智能体只是第一波——图像生成、视频生成、多模态推理、实时交互,每一个品类的放量都会叠加到同一张算力账单上。

供需错配的结构性困境

供需错配的结构性困境

供给侧的响应速度被物理法则锁死。台积电的CoWoS封装产能、HBM内存供应、散热方案成熟度、电力基础设施——任何一环卡住,整体进度就卡住。需求侧却在指数级膨胀,且膨胀方向高度不确定。

去年行业还在争论"训练算力"和"推理算力"哪个更缺。现在这个问题已经过时——两者都缺,且互相抢资源。OpenAI的GPT-5训练需要卡,同时ChatGPT的推理也需要卡;Anthropic的Claude 4训练需要卡,同时Claude Code的Agent调用也需要卡。

优先级怎么排?没有标准答案。每家公司都在做动态平衡,而平衡的结果往往是用户体验受损——限速、排队、功能阉割。

GitHub COO的推文评论区里,有开发者调侃:"现在写代码最快的办法,是让AI帮我写,然后等AI有空了再运行。"这句玩笑正在变成某种现实。

当14倍增速成为新常态,算力分配会不会从"按订阅付费"变成"按优先级竞价"?你的代码提交,愿意排到多后面?