近年来,随着人工智能(AI)技术的快速发展,AI进入了快速扩张和大规模应用的新阶段。
数据中心等算力基础设施是AI的数据中枢和算力载体。生成式人工智能(AIGC)技术作为当前AI技术的发展重点,其基础是以数据和算力堆叠为标志的大模型,训练和应用需要消耗大量的算力支持。
当前,微软、Alphabet以及Meta等科技巨头正斥资数十亿美元建设数据中心基础设施,以支撑AI技术的发展。诸如谷歌、苹果和特斯拉这样的企业,也在持续不断地通过推出新产品和服务来加强其AI能力。激增的算力需求,直接导致了AI技术背后数据中心能源需求的急剧上升。
对此,科技界的领军人物也纷纷发声,强调各自对AI能源需求问题的忧虑:
埃隆·马斯克指出,鉴于AI每半年就能实现能力十倍增长的趋势,电力供应将面临前所未有的压力。“AI计算的瓶颈是可以预见的……一年前,短缺的是芯片。下一个短缺将是电力。当芯片短缺缓解之后,明年可能就会出现电力将不足以运转这些芯片。”
OpenAI的首席执行官山姆·奥尔特曼在达沃斯世界经济论坛上表示,未来的AI需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。他称,更有利于气候变化的能源,尤其是核聚变或更便宜的太阳能以及储能,是AI的发展方向。“不取得突破,就不可能达到这个目标。这促使我们加大对核聚变的投资。”
AI芯片龙头英伟达创始人兼CEO黄仁勋在一场公开演讲里表示,“AI的尽头是光伏和储能,不要光想着算力,如果只想着计算机,需要烧掉14个地球的能源”。
“吞电巨兽”
AI正成为各国电力需求重要增长点。
以OpenAI的聊天机器人ChatGPT为例,其背后的大语言模型(LLM)在训练过程中需要处理海量的信息,而每一次的数据处理都离不开电力的支持。当用户与ChatGPT互动时,每一次回应的背后也离不开电力的持续供给。据估算,若ChatGPT每日响应约2亿个请求,则该过程中消耗的电力将超过58万度,即79.2万千瓦时,这相当于美国家庭平均日用电量的1.7万多倍,单月耗电量接近28.6万中国居民的用电水平。斯坦福人工智能研究所发布的《2023年AI指数报告》指出,一次训练AI大语言模型GPT-3所消耗的电力约为1287兆瓦时,相当于3000辆特斯拉电动车共同行驶20万英里的总耗电量。
根据《焦耳》(Joule)杂志上发表的研究显示,如果谷歌将AIGC集成到用户的每次搜索之中,其每年的用电量将飙升至约290亿度。这一数字超过了诸如肯尼亚、危地马拉和克罗地亚等国的全年用电量。
据国际能源署(IEA)估计,预测训练一个AI模型一年所需的电力超过了100户家庭的用电量。到2026年,全球数据中心的年度总电力消耗将达到1.05万亿千瓦时,即超过1万亿度电,这一数值大致相当于日本全国一年的电力消耗量。预计从2027年起,仅仅AI新增服务器的年耗电量就将等同于荷兰或瑞典等国家的总耗电量,约占全球电力消耗的0.5%。
“排碳大户”
除了电力的大量消耗,AI大模型的碳排放也引人担忧。
虽然OpenAI并未公布具体的计算成本,但第三方研究显示,仅部分训练ChatGPT模型就消耗了大约1287兆瓦时的能源,导致超过550吨的二氧化碳排放,这相当于一个人在纽约和旧金山之间往返550次的碳排放量。
自2019年以来,谷歌的温室气体总排放量增加了48%。仅去年一年,谷歌就产生了1430万吨二氧化碳,较2022年增长了13%,其中范围2的碳排放同比增长了37%。谷歌在其报告中解释称,碳排放量的增加主要来自数据中心的能源使用和供应链排放的增长。“随着我们进一步将AI融入到产品中,减少碳排放变得更具有挑战性,因为AI计算强度的提高导致能源需求增加,而基础设施投资的增加也会导致碳排放增加。”
而这甚至已经是谷歌“极力优化”的结果了,谷歌报告指出,截至2023年底,公司已经连续七年实现100%可再生能源消耗,并借此在2023年实现了63%的碳排放减少。
今年5月,微软透露自2020年以来,其二氧化碳排放量增加了近30%。为OpenAI提供大量计算资源的雷德蒙德也将排放量的增加归因于其云计算和AI业务部门的数据中心建设和配置。
据IEA数据显示,数据中心和传输网络各自占全球能源消耗的1.5%,每年的二氧化碳排放总量相当于巴西的排放量。此前也有数据估计,全球数据中心每年消耗约2000亿千瓦时的电力,并产生约1.5亿吨的二氧化碳排放。
AI与节能
尽管当前AI确实在能源消耗方面占据了相当大的比重,但其作为各行各业的游戏规则改变者,在节能领域,也蕴藏着无穷的潜力。
在传统能源领域,AI增强了灾害预防能力,可以通过精准调度和需求响应,协助调节智能电网,做到动态优化电力调度,提升清洁能源的消纳比例和稳定性,有效避免能源浪费和消除冗余。同时,AI还可以检测出系统中的用能异常和低效率,生成相应报告,并自动提醒用户进行预防性维护。
在工业领域,AI提高了生产技术装备的智能化水平,推动了生产过程的智能化转型,例如,智能机器人自动执行任务,机器视觉执行质量控制,从而减少人力成本、材料浪费和排放。通过智能生产管理系统,AI实现了生产流程的实时监控与优化,同时还能改进产品设计和制造流程,提高供应链效率,加速物料周转周期,减少能源浪费。
在建筑领域,结合了AI技术的能效优化控制系统解决了传统楼宇自动化系统的数据孤岛问题,大幅提高了能源利用效率。AI技术可根据占用情况、天气、使用模式等因素,根据实际需求实现动态响应,智能调节楼宇内的照明、供暖和制冷系统,减少不必要的能耗。
在交通领域,AI驱动的自动驾驶技术和智能交通系统可以提高交通效率,减少拥堵和尾气排放,进而降低交通领域的碳排放。随着新能源汽车的普及率不断增长,AI还能优化充电桩的布局与使用,在保证高效充电的同时不影响交通流畅。
在碳排放管理领域,AI能预测未来的碳排放量,并实时跟踪碳足迹数据,帮助各行业进行碳排放数据的测算与追踪,助力企业了解自身的碳排放情况,制定有效的减排计划。
未来,随着AI技术升级迭代、AI规模化使用带来的生产效率提升和可持续商业实践开展,AI对于节能减碳的正面作用也会愈发凸显。Capgemini研究所预测,到2030年,AI可能会将温室气体排放总量减少16%。世界经济论坛和波士顿咨询公司的报告指出,使用AI技术可以帮助减少26至53亿吨的二氧化碳排放,占减排总量的5%至10%,并在未来十年内为企业可持续发展创造1.3万亿至2.6万亿美元的潜在价值。
AI能耗解决方案,几个探索方向
解决能耗问题是推动AI技术可持续发展的关键因素。
在全球AI技术“军事竞赛”日益激烈的趋势下,随着科技巨头不断建设新的数据中心,由此带来的能源消耗预期将持续增加。
要应对AI的能耗挑战,需要在算力和电力等多个层面进行综合考量与协同努力。一方面,可以从AI本身降低能耗,包括但不限于提升芯片效率和算力效率,设计专门用于模型训练和推理的AI芯片;优化AI算法和模型参数,使得小型模型能够达到与大模型相近的效果;鼓励使用开源模型,减少重复的模型训练工作所带来的能源浪费。
另一方面,能源供应体系也需要适应AI技术的能耗需求。为了支撑AI技术的可持续快速发展,科技企业必须采取措施减少数据中心对化石燃料的依赖,探索替代能源方案,包括但不限于加大对光伏发电、风电等在内的新能源及储能技术的投资,提升清洁能源的使用比例,实现“源网荷储”一体化;同时,还需要在新型能源技术的研究上加大投入,例如可控核聚变、固态电池技术以及钙钛矿材料的应用等,以期为AI技术的发展提供长期、稳定的绿色解决方案。
除此之外,构建低碳、节能的数据中心正成为科技公司的努力方向。能效比更高的制冷技术、数据中心部署地的气候条件,以及数据中心设计优化,都是影响数据中心能耗的关键因素。例如,亚马逊选择运行云计算而非低利用率的本地数据中心,使用低碳混凝土建造数据中心,并通过企业建筑管理系统来管理能源使用和减少排放,同时还投资绿色能源项目以抵消碳排放;阿里巴巴引入AI算法来管理数据中心能耗,持续在线调优运行参数,利用千岛湖深层湖水进行冷却,在全国所有自建数据中心保留了余热回收接口,并使用公共云服务来进一步优化能耗;华为云芜湖数据中心首创了直通风与间接通风自适应融合方案,结合了自然通风与液冷技术,并辅以AI能效精准调优,使得在东部气候较为炎热的情况下,PUE值依然能降至1.1。
结语
面对日益严峻的气候挑战,不断扩张的AI不仅消耗了海量能源,还产生了大量的碳排放。如何在推动科技进步的同时,平衡好能源消耗与环境保护之间的关系,已成为亟待解决的重要课题。
值得庆幸的是,随着技术的进步和创新,缓解AI能耗问题并非“不可能的任务”。一项发表于《科学》期刊的研究指出,在2010~2018年间,全球数据中心的运算量增长了550%,存储空间增长了2400%,但耗电量仅增长了6%。硬件和软件等基础设施以及技术的更迭,数据中心设计方面的技术创新,都有望让AI运行更高效、更节能。
正如比尔盖茨所言,AI技术最终将会“抵消”其耗电量,对于运行新一代AI系统所产生的大量电力需求,我们无需“过分忧虑”。
热门跟贴