很快,地球上的所有能源都会被AI榨干!
这不是危言耸听,根据估算,类似ChatGPT这样的AI每天的电力消耗大约相当于55万户中国家庭。而随着全球人工智能的兴起,它们对能源的消耗还会持续变大。这些能源大部分来自化石燃料,于是进一步加剧了碳排放和全球变暖。这是要搞死人类的节奏呀!怎么办?
大家好我是火箭叔,科学家给出的答案是——先搞它们!让处理器把所有事情都做两次,一次正向,一次反向。What!?多做一遍工作竟然还能更节能。你真的没有听错,事实就是如此,下面听我解释。
大多数人可能并不清楚,计算机其实是一个能源使用效率极低的机器,它在运算过程中产生的能量浪费实际上远超我们想象。因为每次计算机在处理信息时,它都会进行数据删除,而这一过程会产生大量的热。
就拿最简单的A+B运算来举例,计算机会接收输入信号 A 和 B 并输出它们的和 A+B。一旦 A+B 被输入到下一个门,A 和 B 就会被擦除。所有的逻辑门都以这种方式来擦除信息。而根据物理学的基本原理——热力学定律,信息的删除过程是不可逆的。这就意味着,当计算机删除一个数据位时,这些信息不可能凭空消失,它必须要去到某个地方。去哪儿了呢,它们都退化为随机性或热噪声,为计算机带来熵增并使其升温了。换句话说,删除的信息变成了热量散发出去。所以你的电脑才离不开强大的散热系统嘛,因为热量的产生是所有计算的基石——计算机既是计算设备,也是产热设备。
在人工智能时代来临之前,虽然这些能源浪费也很可惜,但我们还兜得住。而现在,它越来越不可持续了,改变必须立刻发生。
于是科学家才提出了“可逆计算”这一新思路。简单说,就是制造一台不仅不会删除信息,而且所有过程都完全可逆的计算机。为什么它可行?因为既然热力学规定——所有不可逆的过程都会伴随着熵的增加——就像传统计算机中发生的那样——但可逆过程是不会改变熵的,因此很少有能量会以热量的形式被浪费掉。如果可逆计算机最终能够运行人工智能程序,那么能源成本将大大降低,对能源带来的挑战也会随着缓解——地球有救了。
那可逆计算具体怎么工作?咱们还是拿A+B来举例,在传统计算机中,A 和 B 会被删除,但在可逆计算机中,它们必须存储在某些内存中,以避免删除时产生的能源浪费。欸我就知道你一定会说,都不删,内存能吃得住吗!研究人员当然是想到了一个解决方法嘛,那就是——要求每次计算都执行两次,首先是正向计算,然后是反向计算。
因为,在正向计算期间必须使用的任何额外内存,在反向执行相同操作时都会被释放掉。是不是相当聪明!但再一细想,还是有些问题:让计算机做两次操作,那它消耗的能量不是也会翻倍吗?好像也省不了多少。但事实并非如此——这两次操作并没有“擦除”任何信息。换句话说,计算机没有丢失数据,也没有做任何“不可逆”的过程。因此,即使做了两次操作,也没有产生额外的能量消耗。它甚至还能带来好处。这些没有擦除的数据还可以在后续更复杂的计算中被再次使用,而不是简单地做一个“无用”的反向操作,从而提高了计算效率。最后,还有一个相当底层的逻辑优势。
本质上,计算机通过电子的运动来进行所有计算。传统计算机中,电子会快速来回移动,这会消耗很多能量,尤其是当电子不断地“跳回”到它们的起始状态时,能量就会流失。而在可逆计算中,电子移动得更慢。这个慢速移动的特性意味着计算机不会过度耗费能量在电子的快速来回运动上,也就不会浪费大量的能量去恢复到初始的状态。最终带来的结果就是,虽然计算速度可能稍微变慢,但能量消耗明显减少,效率反而得到了提高。
一切都再度美好起来了对不对?但这只是理论层面上的,现实中想要实现“可逆计算”并不容易。计算机的芯片和程序需要做出根本性的改变,特别是在程序员如何设计代码和芯片的运作上,这与传统的计算方式完全不同。幸好,一些公司已经在致力于研发可逆计算的芯片了,比如 Vaire Computing、Normal Computing 等初创公司,他们都卯足了劲,加速为人类带来“可逆计算”的登月时刻。
我是火箭叔,别停下,去探索!
热门跟贴