据外媒披露,美国开放人工智能研究中心(OpenAI)的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的约2亿个请求。从绝对数值上看,50万度电是一个巨大的能源消耗量,这一数字相比美国普通家庭日均29千瓦时的用电量,显得尤为突出,高达近1.7万倍之多,相当于一个小型城市或大型企业的日常电力需求,这样的能耗水平对于任何系统或设备来说都是相当高的。与其他大型设备或系统相比,例如高能耗的EUV光刻机,ChatGPT的日耗电量仍然相当于2台EUV光刻机的能耗。

打开网易新闻 查看精彩图片

生成式AI的耗电情况与具体的任务、模型规模以及使用的技术等多种因素相关。例如,使用文本到图像模型生成一张AI合成图片所需的能量几乎相当于为一部智能手机充一次电,而大型多用途模型通常比特定任务模型更耗能。因此,生成式AI的耗电情况并不是一个固定的数值,而是根据具体应用场景和模型特性而有所变化。

马斯克曾预言“制约 AI 发展的因素将由‘缺硅’变成‘缺电’”;Open AI CEO 萨姆·阿尔特曼也表示 AI 将消耗更多电力,并高调投资核聚变。ChatGPT的能耗还涉及到环境和社会影响。如此巨大的电力消耗不仅意味着大量的能源被用于支持这一系统,还可能导致碳排放和其他环境问题。

展望未来,随着生成式AI的广泛应用,其电力消耗恐怕还会进一步攀升。不同的人工智能模型在运行方式上存在的巨大差异,也为电量消耗的估算带来了额外的复杂性。

打开网易新闻 查看精彩图片

为了生成式AI能够得到更好的发展,需要从模型规模和精度、多模态融合、个性化和适应性、自我学习和进化等方面进行大模型的优化,以提供更准确、更精细的生成结果。生成式AI可能会更多地关注多种感官信息的融合,如文本、图像、音频等,以创造出更丰富、更沉浸式的体验;更加个性化和适应性,能够根据用户的需求、偏好和历史数据生成定制化的内容;具备更强的自我学习和进化能力,能够从大量的数据和交互中不断提升自身的生成能力和质量。

在能源消耗方面,未来的生成式AI可能会通过优化算法、减少模型复杂度、使用高效硬件设备、提高数据中心能效等方式来降低能耗。此外,使用高效的冷却技术和电源供应设备,如浸没式液冷技术,以及实施智能的能源管理策略,也有助于减少能耗。这些措施并不是孤立的,通常需要综合运用多种策略来达到最佳的节能效果。