马斯克断言地球电力将枯竭,为何AI如此耗电?针对此问题,《聊一波》栏目邀请中国工程院外籍院士、清华大学智能产业研究院创始院长张亚勤展开探讨。
王波明:大模型对电的需求量很大,究竟达到了怎样的规模,会导致电力供应不足?比如在美国,其电力消耗处于什么量级?
张亚勤:如果看一下这一轮的人工智能,叫做生成式人工智能。这类技术需要海量的参数支撑,同时离不开大量图形处理器(GPU)的运算。其中涉及的参数规模可达万亿级,再加上高带宽内存(HBM)及各类网络设备,十分耗电。
这就涉及到一个概念:规模定律(scaling law),即数据量越大、算力越强,再辅以更优的算法,模型性能就会越好,而其电力消耗也基本呈现指数级增长。
目前主流使用的算法是Transformer,其算力需求呈n平方量级增长,本质上也是指数级攀升。这里的n指的是Token的尺寸,而算力需求与n的平方成正比,所以生成式AI对电力的要求确实很高。
美国当前的电力困境,一方面是美国的整体电网大多是30多年前部署的,电力系统中的变压器使用寿命通常为30年,如今已普遍出现老化退化现象。因此,美国电网不仅容量不足,还存在严重的老化问题。
另一方面,当前新建的大型数据中心耗电量极高,因此美国多个地区,例如弗吉尼亚州,目前部分家庭出现了用电困难的问题,数据中心启动并运行后,把电都用光了。所以现在美国又开始大力推进核电厂的发展,同时重启了许多此前已停用的电厂。
王波明:我了解到,似乎有部分企业计划为自身建设专属电厂,是吗?
张亚勤:是的。由于当前电网的容量无法满足企业的用电需求,因此部分企业计划自建供电设施,例如利用水电或自备发电机组供电。
目前还有一项处于科研阶段的技术——微型核反应堆,可直接配套建设在数据中心内,其供电能力较强,但目前尚未实现落地应用,仍处于研发阶段。
不过即便如此,相关企业的股票在去年仍上涨了数十倍。说明市场有这需求,而且大家对它的期待很大,这里面可能也有一些泡沫吧。
我觉得现在目前数据中心,包括这么多GPU的使用,基础设施的打造,有点像咱们互联网1997、1998年的时候,互联网泡沫出现前的两三年。
但我觉得也十分自然,因为在一个大的技术浪潮来临时,首先要把基础设施建好,建的时候可能会超前一点。
这种超前性难免会催生部分泡沫,因为对于大型企业而言,他们宁愿在基础设施建设上投入过多、承受一定的浪费,也不愿失去这个机会,因为失去机会的成本,远高于当前多投个几百亿的投入。
作品声明:仅在头条发布,观点不代表平台立场
热门跟贴