本文作者穆斯塔法·苏莱曼(Mustafa Suleyman)是微软 AI 的 CEO,DeepMind 联合创始人之一。这是他为《麻省理工科技评论》撰写的署名评论文章。作为全球最大科技公司之一的 AI 业务负责人,苏莱曼从算力、硬件、软件和能源四个维度,解释了为什么他认为 AI 的“算力爆炸”远未见顶。以下是他的第一人称叙述。
人类的大脑天生习惯于线性思维。走一小时路,你能覆盖一段距离;走两小时,距离就翻倍。这种直觉在非洲草原上对我们大有助益,但在面对 AI 以及它核心的指数级趋势时,它会让我们彻底误判。
从我 2010 年开始从事 AI 研究到现在,投入前沿 AI 模型训练的数据量已经增长了惊人的 1 万亿倍:从早期系统的约 10¹⁴ 次浮点运算(flops,即浮点运算次数,是计算的核心单位),增长到如今最大模型的超过 10²⁶ 次。这是一次爆炸。AI 领域的其他一切都是由这个事实派生出来的。
怀疑论者常常预言 AI 的发展即将撞上天花板。但在这场史诗级的跨代算力跃迁面前,他们一次又一次被现实打脸。这些人的论据通常有三个:摩尔定律正在放缓、可用的训练数据即将枯竭、能源供给跟不上算力扩张的速度。
但只要把推动这场革命的几股力量拼在一起看,指数级的增长其实相当可预测。要理解这一点,就得绕到新闻标题背后,看看那个复杂而飞速演进的真实图景。
你可以把 AI 训练想象成一间屋子,里面坐满了拿着计算器的人。过去很多年,提升算力的办法就是往屋里塞更多人、配更多计算器。但这些人大部分时间其实都闲着,手指敲着桌面,等下一组数据送过来好开始下一次运算。每一次等待都是被白白浪费掉的潜力。今天这场革命真正的突破,不只是让计算器更多、更快(当然也做到了这一点),而是让所有的计算器永不停工,并且像一个整体那样协同运转。
让这一切成为可能的,是三项正在汇合的技术进步。
第一,基础的计算器本身变快了。Nvidia 的芯片在短短六年里把原始性能提升了七倍以上,从 2020 年的 312 teraflops 涨到了今天的 2250 teraflops。我们今年 1 月发布的 Maia 200 芯片,单位成本下的性能比我们现有硬件池中的任何一款都高出 30%。
第二,数据到达的速度也跟上来了。这要归功于一项叫做 HBM(高带宽内存)的技术,它像微型摩天楼一样把内存芯片垂直堆叠起来。最新一代的 HBM3 带宽是上一代的三倍,送数据的速度快到足以让处理器一刻不闲。
第三,原本那间坐满计算器操作员的屋子,变成了一整栋办公楼,进而变成了一个园区,最后变成了一座城市。NVLink 和 InfiniBand 这类技术把数十万块 GPU 连成一台仓库大小的超级计算机,作为一个统一的认知实体运行。几年前,这还是做不到的。
这三件事合在一起,带来了惊人的算力提升。2020 年在 8 块 GPU 上训练一个语言模型要花 167 分钟,如今在同等规模的现代硬件上不到 4 分钟就能完成。对比一下就知道这有多夸张:按摩尔定律推算,这段时间性能提升顶多也就 5 倍,而我们实际看到的是 50 倍。2012 年开启现代深度学习热潮的图像识别模型 AlexNet 只用了 2 块 GPU,如今最大的集群里 GPU 数量已经超过 10 万块,而且每一块都远比当年的强大。
软件层面的革命同样不容忽视。根据 Epoch AI 的研究,达到同一性能水平所需的算力,大约每 8 个月就减半一次,这比传统摩尔定律 18 到 24 个月翻一番的节奏快得多。按年度计算,一些最新模型的部署成本下降了最多 900 倍。部署 AI 正变得越来越便宜。
未来几年的数字同样令人瞠目。头部实验室的算力规模正在以每年接近 4 倍的速度扩张。从 2020 年到现在,训练前沿模型所用的算力每年增长 5 倍。预计到 2027 年,全球与 AI 相关的算力总量将达到 1 亿块 H100 等效算力,三年内增长十倍。把这些趋势叠加起来,到 2028 年底,有效算力可能还会再增长大约 1000 倍。到 2030 年,我们每年新增的算力规模可能达到 200 吉瓦,相当于英国、法国、德国、意大利四国峰值用电量的总和。
这一切换来的是什么?我相信它会推动 AI 从聊天机器人进化为接近人类水平的智能体:一种半自主的系统,能连续写好几天代码,能执行持续数周乃至数月的项目,能打电话、谈合同、管物流。别再把 AI 想成只会回答问题的基础助手,你该想象的是一整支能思考、能协作、能干活的 AI 团队。我们现在只是刚刚走到这场转型的山脚下,它的影响会远远超出科技行业。每一个建立在脑力劳动之上的行业都将被重塑。
最明显的制约是能源。一台冰箱大小的 AI 机架功耗就高达 120 千瓦,相当于 100 户家庭的用电量。但这种对能源的饥渴,正好撞上了另一条指数曲线:过去 50 年,太阳能的成本下降了将近 100 倍;过去 30 年,电池价格下降了 97%。一条用清洁能源支撑算力扩张的路径,正在逐渐浮现。
钱已经砸下去了,工程也在交付。1000 亿美元级别的集群、10 吉瓦的用电规模、仓库级别的超级计算机……这些已经不再是科幻。在美国和世界各地,这些项目正在动工。我们正在走向一个真正的"认知丰裕"时代。在微软 AI,这就是我们的超级智能实验室正在规划和建造的未来。
那些习惯了线性世界的怀疑者,还会继续预言回报递减,也会继续被现实打脸。算力爆炸就是我们这个时代的技术故事,而它才刚刚开始。
https://www.technologyreview.com/2026/04/08/1135398/mustafa-suleyman-ai-future/
热门跟贴