GPU芯片用两年就报废,聊天机器人回复一句话的电费够你煮三杯咖啡——这就是AI时代的绿色账单,但没人告诉你价格。
Ludi Akue在QCon London上算了笔账。她做过产品经理,现在管着Bpifrance的绿色IT项目,专门研究怎么让代码少"吃"点电。按她的说法,生成式AI像个24小时不关机的电暖器,用户每敲一次回车,后台就在疯狂烧算力。更麻烦的是,这玩意儿越用越费硬件:GPU芯片寿命被压缩到2-3年,比智能手机还短命。
最讽刺的是成本隐身术。Akue提到,"用户看不到每次查询背后的环境成本,因此也就没有任何天然的约束。"团队部署AI功能时,默认逻辑是"先上再说",没人追问这东西是不是真的值得跑一趟数据中心。欧盟AI法案倒是提了嘴能源消耗,但执行机制约等于没有——就像餐厅菜单标注了卡路里,却不告诉你这道菜怎么做的。
她给过一套技术解法:模型压缩、量化、RAG、小语言模型。但2025年回头看,这些手段有点像给漏水的浴缸换更高效的排水泵——压缩和量化确实能让单次推理省2-4倍的电,可用户量涨得更快,总耗电量不降反升。Akue管这叫"反弹效应":技术效率成了扩张的许可证,而不是节制的理由。
真正缺的是什么?她举了个产品思维的例子:不是问"我们能构建它吗",而是问"我们应该构建它吗";不是问"有多快",而是问"代价是什么"。她在Bpifrance推了一套组合拳,用Ecologits、LiteLLM这类工具把环境成本摊到团队面前,再加上PromptSage项目教人写更"省"的提示词——毕竟,让AI少猜几次也是一种节能。
Akue最后打了个比方:我们过去设计系统时假设世界是稳定的,现在气候危机把这个假设撕了。可持续性不该是事后贴的标签,得像延迟和可扩展性一样,写进需求文档的第一行。
她团队最近的一个发现是:那些真正管用的治理机制,公开记录里几乎找不到。技术优化满天飞,但愿意给AI推理设预算、做决策框架的人,还是少数派。
热门跟贴