你知道现在AI有多能吃电吗?说出来可能吓你一跳。
咱们跟AI说话、让它写文章、画画、算个逻辑题,背后其实都在烧电。而且烧得不是一点半点,是那种让人头皮发麻的量。
先弄明白一个词:Token。你可以把它当成AI干活的一个“计量单位”。各家AI公司报价的时候,都是说多少钱每百万Token。那每生成一百万个Token,要耗多少电呢?南方电网之前测过,大概在15到20度之间。咱们取个中间数,18度。
那中国现在每天要用掉多少Token?根据媒体披露的数据,到今年三月底,国内日均词元调用量突破了140万亿。
你可能对这个数字没概念——2024年初的时候,这个数字只有1000亿。两年多时间,涨了一千多倍。就算跟2025年底比,也又涨了40%。
好,咱们来算笔账:140万亿个Token,每百万Token耗18度电。140万亿除以100万,再乘以18,等于25.2亿度电。
没错,光是中国这边,大家每天跟AI聊天、让它干活,就要烧掉25.2亿度电。这还只是“用”AI这一块的消耗,没算上训练大模型、建数据中心这些基建的电。
那25.2亿度电是什么概念?2025年,中国全年的用电量是10.37万亿度,平均到每天大概是280亿度。也就是说,光是AI对话、生成内容这一项,就占到了全国日均用电量的9%左右。
你想啊,每十度电里就有将近一度是被AI“喝”掉的。
而且这玩意儿增长速度吓人——两年涨一千多倍,三个月又涨四成。照这个势头,2026年Token消耗再翻个两倍,那AI用电量就得跟着翻倍。到时候,全国发电量得再增加20%才够用。
这就解释了为什么马斯克、微软CEO这些大佬,都说AI的未来看中国。不是客气,是真的没办法。
你看看美国,电网老旧,扩容慢,审批起来要命。
马斯克甚至琢磨着到太空中去搞光伏发电,因为靠美国本土的电力系统根本跟不上AI的需求。你GPU再多、数据中心再豪华,没电就是一堆废铁,开不了机。
中国这边就不一样了。电力资源丰富,发电量大,关键是扩容快。哪里缺电,电网拉过去,新电厂建起来,速度不是一般国家能比的。
再算一笔账,跟钱有关。刚才说了,每百万Token耗18度电。工业用电按五毛钱一度算,那百万Token的电力成本就是9块钱。
你再看美国的AI:GPT-5.4的报价是每百万Token 15美元,合人民币一百多块;Claude Opus 4.6要25美元,将近两百块人民币。这里头固然有模型本身的差异,但电费成本就差了十倍不止。
你说美国那边的AI怎么跟中国拼价格?电费都扛不住。
所以,每天25亿度电这个数字,既是一个警告,也是一个底气。警告的是,AI这东西真不是谁都能玩得起的;底气的是,全世界能这么敞开了烧电、还能随时扩容的,可能真就中国这一家。马斯克说AI的未来看中国,不是随口一说,是算过账的。
热门跟贴