今年,诺贝尔物理和化学奖都颁给了AI!
2024年诺贝尔奖的颁发让AI领域成为关注焦点。10月8日,诺贝尔物理学奖意外授予了“AI教父”杰弗里·辛顿和普林斯顿大学教授约翰·霍普菲尔德,以表彰他们在人工神经网络和机器学习方面的基础性贡献。这一奖项的颁发让人们怀疑AI是否正在逐渐占据科学的中心地位。
在诺贝尔物理学奖颁发24小时后,AI再次成为焦点。2024年诺贝尔化学奖的一部分授予了戴维·贝克,以表彰他“利用计算机进行蛋白质设计”的成就,另一半则授予谷歌DeepMind的首席执行官德米斯·哈萨比斯和高级研究科学家约翰·M·詹珀,认可他们在蛋白质结构预测领域的贡献。特别是2020年发布的AI模型AlphaFold2,彻底改变了蛋白质三维结构的预测方法。
AI与蛋白质结构的突破联系紧密,因此AlphaFold2早已成为诺贝尔化学奖的热门候选之一,化学奖的颁发引发的争议相对较少。然而,获奖的意外之处在于,诺贝尔奖通常奖励数十年前的研究,等到其长期影响显现时才授予。而此次颁奖的AlphaFold2仅在四年前问世,是诺奖历史上最快速的反应,显示出诺奖委员会思维的转变。
当记者询问诺贝尔化学奖委员会是否考虑了AI的影响时,委员会坚称决定完全基于科学。然而,AI的双赢让人们开始思考:AI是否会改变科学研究的本质?未来的诺贝尔奖是否会全面转向AI?AI能否有一天独立赢得诺奖?这些问题已引发了广泛讨论,标志着AI在科学界的重要性与日俱增。
全球人工智能用电量概览:
随着人工智能的快速发展,其对电力的需求也显著增加。据悉,AI服务器和芯片是导致能耗大幅增加的主要来源。相比于通用型服务器仅需2颗800W电源,AI服务器则需要配备4颗1800W的高功率电源,其对电源的需求显著提高。
1.2022年,人工智能占全球能源使用量的2%,相当于一个小国家的消耗水平。(来源:Vox)
国际能源署警告称,2022年,全球2%的能源用于支持人工智能和加密货币任务。这不仅包括电力,还涉及大量数据中心、塑料、金属、电线和水等资源的消耗,带来了环境问题。
2.运行人工智能模型所需的能量是传统应用程序的2至3倍。(来源:标准普尔全球)
人工智能需要强大的服务器在数据中心中运行,电力消耗大幅增加,尤其是使用像NVIDIAGrace Hopper H100这样的处理器时,功耗会翻倍。
3.AIGPU平均耗电650瓦。(来源:《巴伦周刊》)
与CPU相比,GPU在处理AI任务时需要更多电力,平均耗电量为650瓦,比传统高端显卡的耗电量高出一倍。
4.每天有200亿个ChatGPT请求,耗电约50万千瓦时。(来源:纽约客)
ChatGPT作为一款热门AI系统,消耗大量电力。其每天200亿次请求的耗电量,相当于一个美国家庭一年用电量的两倍。
5.GPT-3模型一年的用电量相当于130个美国家庭的用电量。(来源:TheVerge、Statista)
GPT-3的训练过程耗电量巨大,达到了1300兆瓦时,堪比200个德国家庭一年的用电量。
6.GPT-3消耗的资源超过世界最强20台超级计算机的总和。(来源:福布斯)
GPT-3需要的处理能力达到800petaflops,等同于20台最强超级计算机的总和。
7.Google数据中心15%的能源用于机器学习。(来源:耶鲁大学)
谷歌透露,截至2024年,其数据中心的15%能源消耗用于机器学习任务。
电力系统的心脏——变压器
如果人工智能的采用速度超过电力生产的增长,电力供应可能会面临压力,导致电力短缺或能源成本上升。在这样的背景下,变压器作为电力系统中的关键设备,在平衡电力供应与需求方面起着至关重要的作用。变压器需要处理更大规模的电流和更频繁的负荷波动。
非晶合金变压器于上个世纪70年代发展起来,是一种采用非晶合金代替硅钢片作为铁芯材料的新型电力变压器。中电电气非晶合金变压器比硅钢片作铁芯变压器的空载损耗下降70%-80%左右,空载电流下降约85%,是目前节能效果较理想的配电变压器,适用于配电利用率较低以及易燃、易爆和防火要求高的场所,如农村电网、高层建筑、商业中心、地铁、机场、车站、工矿企业和发电厂。
通过在电力系统中更智能地应用变压器技术,以及采用AI优化全球电力管理,未来人工智能的扩展可能会与电力生产更好地协同发展,推动更加可持续的能源未来。
热门跟贴