打开网易新闻 查看精彩图片

大数据文摘受权转载自头部科技

文丨俊俊

没想到,AI的尽头,居然是储能。

因为大模型训练,不仅费钱,更费电!

随着AI爆火,大型AI模型需要大量算力资源,大量新建的数据中心需要巨量的电力供应,科技巨头对电力需求激增,电力需求不断高涨。

像亚马逊AWS等公司正与核电厂运营商商谈供电协议,以满足数据中心的电力需求。

这一趋势引发争议,大家都在担心科技公司通过转移现有电力资源而非增加绿色能源来满足需求,可能加剧电力可靠性问题和电价上涨。

果然费电

AI需要电,就像人类需要水一样。虽然知道AI训练耗电大,但没想到这么大。

“一些简单的计算”表明 AI 所需电力将在全球电力消耗中占据相当大的份额。

研究显示,训练谷歌于2022年发布的大语言模型PaLM需要消耗3436兆瓦时的电量,约等于11.8万美国普通家庭日耗电量(美国普通家庭日均耗电量约为29千瓦时);就算训练参数量为3.4亿的BERT模型,也需要消耗1.5兆瓦时的电量,相当于观看1875小时的流媒体。

据《纽约客》杂志引援国外研究机构报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力。

也就是说,ChatGPT每天用电量相当于1.7万个美国家庭的用电量。而随着生成式AI的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。

如果以英伟达 H100 为例,其峰值功耗为 700W,与一台正在工作中的微波炉功耗大致相同。而随着超级芯片更新换代,峰值功耗仍有可能增加(一个英伟达 Blackwell 超级芯片包含两个 1200 瓦的 GPU 和一个 300 瓦的 CPU)。

若 2025 年至 2029 年期间销售的所有数据中心加速器在 5 年的使用寿命中持续使用,在此之间的功耗保守为 700W,则全球数据中心加速器的总功耗为 2318 太瓦时(1 太瓦时 =10 亿千瓦时)。而根据美国能源信息署的数据,2025 年至 2029 年间,全球耗电量将达到 153000 太瓦时。

这意味着 AI 芯片将占未来五年用电量的 1.5%。未来五年,AI芯片将消耗全球超1.5%电力,是全球能源消耗的重要组成部分,这种能源使用也将转化为碳排放。若根据能源研究所的数据来看,2023 年,电网的平均碳强度为每千瓦时 481 克二氧化碳。这意味着从 2025 年到 2029 年,AI 芯片将产生 11 亿吨二氧化碳,这些碳排放量每年需要约 500 亿棵成熟树木来吸收。

但背后则是实实在在的AI能耗问题,越来越多的人担忧高能耗将成为制约 AI 发展的瓶颈。就在不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)在社交媒体 X 上表示,微软已经遇到了这方面的难题。

科比特称,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。

训练大模型需要大量的能源,比传统的数据中心要消耗更多的电力。OpenAI曾发布报告指出,自2012年以来,AI训练应用的电力需求每3到4个月就会翻一倍。

科技行业名人的言行也在放大“ AI 能耗巨大”的信息。

华为AI 首席科学家田奇曾给出数据,AI算力在过去10年至少增长了40万倍。AI大模型可谓是“耗电巨兽。”

荷兰一位学者表示,到2027年,新制造的人工智能设备的用电量将与荷兰、瑞典、阿根廷等国的用电量一样。

马斯克曾预言“制约 AI 发展的因素将由‘缺硅’变成‘缺电’。”

Open AI CEO 萨姆·阿尔特曼也表示 AI 将消耗更多电力,并高调投资核聚变。

AI 耗电,只是冰山一角

科技公司用电,其实节流难开源更难。

ITIF 报告指出,目前许多研究和政策都关注 AI 训练(training)阶段,但多项研究表明 AI 在推理(inference)过程中,也即人们使用 AI 输出结果的过程能耗更高。

此外,不同 AI 模型处理不同类型的推理任务,能耗的差异也很大。例如 1000 次请求计算,图片分类任务的耗电量是 0.007 千瓦时,而图片生成任务耗电 2.907 千瓦时。

报告作者指出,AI 的训练是一次性事件,而它的使用是长期过程,讨论 AI 能耗问题时应该关注的不是爆发式增长,而是长期的影响。

微软工程师遇到的难题也表明,制约 AI 发展的不仅是技术本身的能耗,还有配套基础设施的能耗,以及电网的承载力。

虽然AI耗电量看上去是天文数字,但仍然远远不及加密货币与传统数据中心的耗电量。

国际能源署(IEA)发布的一份报告显示,2022 年全球数据中心、人工智能和加密货币的耗电量达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到 2026 年这些领域的用电量将达 1000 TWh,与整个日本的用电量相当。

目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI 服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022 年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。差距挺大。

数据中心的能效通常用能效比(Power Usage Effectiveness,消耗的所有能源与 IT 负载消耗的能源的比值。能效比越接近于 1,表明数据中心浪费的能源越少)评估显示,数据中心的 IT 设备每消耗 1 度电,其配套设备就消耗 0.59 度电。

数据中心的额外能耗中,绝大部分应用于冷却系统。冷却系统消耗的能量可达数据中心总能耗的 40%。

因为冷却系统、结构设计等各方面的差异,不同数据中心的能效比差异很大。

Uptime Institute 报告显示,欧洲国家已经把能效比降到了 1.46,而在亚太地区仍有超过十分之一的数据中心能效比超过 2.19。

随着加密货币和 AI 的发展,各大科技公司的数据中心规模不断扩大。

据国际能源署(IEA)统计,在 2022 年美国拥有 2700 座数据中心,消耗了全国用电量的 4%,并预测这一比例到 2026 年将达到 6%。

出路在哪里?

其实90 年代就曾有人预测,未来发电量的一半将用于满足互联网活动;在流媒体出现的时候,同样有人提出类似观点。

如今我们知道,这些担忧都并未成为现实。

ITIF 报告认为,如果没有完全理解 AI 能耗问题就急于进行管控,可能会阻碍 AI 的性能提升,限制其发展潜力。例如,使 AI 消除偏见和仇恨言论、避免输出有害信息,都需要进行更多的推断,从而提升能耗。

天然气往往被视为向可再生能源转型过程中的一座桥梁,但它在冬季极端天气下并不稳定。

2021 年,寒潮袭击美国得克萨斯州,导致大面积断电,部分居民家中断电超过 70 小时。这次灾难的一个主要原因就是天然气管道冰冻,造成天然气发电厂停摆。

北美电力可靠性委员会(North American Electric Reliability Council,简称 NERC)预测,在 2024-2028 年,美国、加拿大有超过 300 万人口面临越来越高的断电风险。

为保障能源安全,同时实现节能减排,许多国家也将核电站视为一种过渡措施。

在 2023 年 12 月举办的联合国应对气候变化委员会第 28 次峰会(COP 28)上,22 个国家签署联合声明,承诺到 2050 年将核能发电能力提升到 2020 年水平的 3 倍。与此同时,随着中国、印度等国大力推进核电建设,IEA 预测到 2025 年,全球核电发电量将达到历史新高。

产业界也在积极寻找更终极的解决方案,即通过更绿色环保的新能源来代替传统能源驱动AI技术。很多企业在认识到AI高耗电的特性后,也将目光转向核电。

CNN等媒体报道称,奥尔特曼向美国核聚变初创公司Helion能源投资了3.75亿美元。奥尔特曼也是初创公司Oklo的主席,该公司专注于通过核裂变发电。

2023年,微软决定将从2028年开始从Helion能源购买电力。同样在2023年,微软与美国星座能源公司签署了一项协议,要求后者为微软位于弗吉尼亚州的数据中心增加核能发电。此前一年,谷歌参与了TAE科技公司2.5亿美元的融资。

不过,英国曼彻斯特大学的核聚变研究员阿尼卡·汗表示,通过核聚变发电的技术可能要到本世纪下半叶才能准备好。

还有专家警告说,无论需求增长有多快,扩大核电的努力都不应该急于求成。加拿大卡尔顿大学机械和航空航天工程助理教授阿卜杜拉说:“如果我们向目标冲刺,就有可能犯严重错误。”

值得一提的是,近年来,液冷的散热方式成为高密度算力中心的部署趋势。

数据显示,与传统的风冷系统相比,新型液冷系统可节省用电量的30%至50%。

国际数据公司IDC最新数据显示,2023年上半年,中国液冷服务器市场规模6.6亿美元,同比增长超过280%,预计全年将达15亿美元。该机构预测,2022年至2027年,中国液冷服务器市场年复合增长率将达54.7%,2027年达到89亿美元。颇具市场潜力。

保障电网基础设施,不仅关系到 AI 技术的发展,更是关乎国计民生。

世界各国正在采取措施,敦促数据中心实现节能减排的目标。

其中,欧盟要求大型数据中心设立余热回收设备。

美国政府注资研发更高能效的半导体。

中国政府也出台措施,要求数据中心从 2025 年起能效比不高于 1.3,并将可再生能源使用比例逐年上调,到 2032 年达到 100%。

正如人要吃饭,AI需要吃电,有些乐观的朋友则戏称“只要电费贵过馒头,AI 就永远不能完全代替人”“未来的AI战争,可能也就是拔插头的事情。”

科技作为第一生产力,随之涌现出的新生事物,也必然会带来利与弊,耗电只是生产力发展的部分问题。

能源与新材料的发展,将优化人们所面临的现实问题,更深地推动AI与人类文明的演进。

租售GPU算力

租:4090/A800/H800/H100

售:现货H100/H800

特别适合企业级应用

扫码了解详情☝

打开网易新闻 查看精彩图片