一项研究显示,“热力学计算”可以将人工智能图像生成的能耗降低一百亿倍,使得这一利用噪声生成图像的技术,所用能量远低于当前生成式AI模型。
一份令人震惊的新报告声称,“热力学计算”理论上可以大幅降低人工智能生成图像的能耗,仅需目前流行工具的十亿分之一。据IEEE Spectrum报道,两项近期研究暗示了这项新兴技术的潜力,但其支持者也承认,该方案尚处于初级阶段。
据报道,美国劳伦斯伯克利国家实验室的科学家斯蒂芬·怀特拉姆声称,热力学计算可以用于人工智能图像生成,“其能耗远低于目前的数字硬件”。在1月10日由怀特拉姆和同样来自伯克利的科尼尔·卡塞特共同发表的一篇文章中,两人概述了“如何创建神经网络的热力学版本”,从而为利用热力学计算生成图像奠定了基础。
世界上首款“热力学计算芯片”去年完成流片。热力学计算与传统的电脑游戏计算相比,更接近量子计算或概率计算,它利用噪声和物理能量来解决问题。
根据报告,这台热力学计算机被输入一组图像,然后任由图像逐渐退化。自然的随机相互作用持续进行,直到计算机各组件之间达到平衡。之后,计算机的任务是计算逆转这种退化过程的概率,并调整相关参数,使逆转的可能性尽可能大。
怀特拉姆于1 月 20 日在《物理评论快报》上发表了一篇文章,详细介绍了这一研究成果,文章中他详细阐述了该过程可用于创建热力学计算机,该计算机可用于生成一些手写数字的图像。
“这项研究表明,制造能够进行某些类型机器学习的硬件是可能的。具体来说,“图像生成——而且能耗比我们目前使用的硬件要低得多。”
这一概念验证还处于非常初级的阶段,要实现能够与主流方案相媲美的热力学图像生成技术还有很长的路要走。科学家们需要研究如何制造实现这一目标的硬件。”
虽然这是一个很大的挑战,但在人工智能建设和数据中心增长给全球能源供应带来前所未有的压力的今天,如果未来能够将人工智能图像生成能耗降低一百亿倍,那无疑将是一项颠覆性的突破。
热门跟贴