全球3400万人正生活在数据中心制造的"热浪"里,而他们的空调账单可能还没算清。
剑桥大学安德里亚·马里诺尼团队追踪了6000多座超大规模数据中心,发现这些设施投运后,周边地表温度平均飙升3.6华氏度(约2摄氏度),极端案例达到16.4华氏度。热效应最远波及6.2英里外——相当于从北京国贸到通州运河商务区的距离。
数据中心不是用电,是在"烧地"
马里诺尼的原话很直接:「我们对数据中心影响的认知仍存在巨大空白。」
这句话的潜台词是:业界过去只盯着PUE(电源使用效率)这个数字,仿佛电费单就是全部环境成本。但剑桥团队把卫星热成像和人口数据叠在一起后,发现北美、欧洲、亚洲有超过3.4亿人住在数据中心热岛的影响范围内。
这相当于整个美国人口都活在AI基础设施的"余热"里。
热岛效应的机理并不复杂。数据中心把海量电力转化为算力,同时把废热排向周边环境。传统空调思路是"把热量搬到室外",但当室外本身就是数据中心集群时,这就像在密闭房间里开冰箱——整体温度只会越来越高。
微软在亚利桑那州的数据中心已经让周边社区出现了 measurable 的夏季夜间升温,而当地官员直到居民投诉才意识到热源来自几英里外的服务器农场。
AI训练一次,地球发烧一度?
研究覆盖的时间跨度是20年,正好撞上深度学习爆发期。
2012年AlexNet点燃的深度学习革命,让数据中心从"仓库式存储"转向"算力工厂"。GPT-4级别的训练单次耗电量相当于130个美国家庭的年用电量,而这些能量最终都变成了需要散出的热量。
马里诺尼团队的数据揭示了一个被忽视的维度:热效应具有累积性和区域性。当微软、亚马逊、谷歌在同一地区(如弗吉尼亚州北部"数据中心走廊")密集布局时,热岛会相互叠加。剑桥模型显示,某些区域的热强度已接近小型城市中心的水平。
这引出一个尴尬的事实:企业购买的"绿色电力"证书,只解决了碳排放的会计问题,没解决物理层面的热排放。
你可以用风电训练AI,但风电不会帮你把服务器排出的热量凭空变没。
散热战争:从空调到核反应堆
行业并非毫无察觉。微软2023年曾尝试将数据中心沉入海底,利用海水自然冷却;谷歌在芬兰利用海湾冷水;Meta则把数据中心建在北极圈内。
但这些方案都有地理限制。AI训练需求集中在弗吉尼亚、亚利桑那、新加坡、荷兰——恰好是土地紧张、气候温和或炎热的地区,天然散热条件并不优越。
更激进的方案正在浮出水面。微软与星座能源签署协议,计划用三里岛重启后的核电直供数据中心;亚马逊收购了Talen能源的数据中心园区,直接毗邻核电站。核电的吸引力不仅是零碳,还有稳定的高功率输出和相对可控的废热管理。
把数据中心建在核电站旁边,本质上是把"热管理"外包给核工业的冷却系统——后者处理千兆瓦级热负荷的经验,比IT行业丰富得多。
但核电选址同样有生态约束。美国核管理委员会的审批周期以十年计,而AI算力需求以季度计。时间错配意味着,未来五年我们将看到更多传统散热方案在热岛效应中硬扛。
被忽略的成本转嫁
剑桥研究最刺痛的地方在于热效应的社会分布。
数据中心倾向于建在电价低、税收优惠多的地区,而这些地区往往也是中低收入社区。弗吉尼亚州劳登县的居民过去十年经历了房价飙升和夏季高温天数增加,却很难把这两者与几十英里外的服务器农场建立因果联系。
马里诺尼指出,现有环境影响评估几乎不涉及热岛效应。企业披露的是范围一、范围二的碳排放,不是"范围X"的热辐射。
这种信息缺口导致成本转嫁链条断裂:数据中心运营商支付电费,但周边居民支付更高的空调账单和健康风险。当亚利桑那州凤凰城在2023年出现创纪录的连续31天超过110华氏度时,没人能拆分出多少热量来自自然气候变化,多少来自城郊膨胀的服务器集群。
监管真空与测量难题
热岛效应进入政策议程的速度,远落后于其物理扩散速度。
欧盟的《能源效率指令》要求数据中心报告能耗,但没要求报告热排放。美国环保署的能源之星认证关注PUE,不关注周边温度变化。中国"东数西算"工程把算力西迁,部分动机是利用西部凉爽气候,但同样缺乏对热效应的系统性监测。
剑桥团队的方法论——卫星热成像叠加人口数据——为监管提供了技术可能。但卫星数据的时间分辨率有限,难以区分数据中心的瞬时热脉冲与城市热背景的缓慢漂移。马里诺尼承认,「我们需要更高频的监测和更精细的模型」。
这意味着,在更好的数据到来之前,3.4亿人的"热暴露"状态将持续处于灰色地带。
冷却技术的军备竞赛
液冷技术被寄予厚望。把冷却液直接导入服务器芯片,热交换效率比风冷高一个数量级。但液冷系统的部署成本和维护复杂度,让中小企业望而却步。
英伟达H100芯片的TDP(热设计功耗)达到700瓦,相当于一台家用微波炉全功率运行。下一代Blackwell架构预计突破1000瓦。芯片功耗的指数曲线,正在碾压散热技术的线性进步。
一个冷幽默式的观察:AI行业谈论"算力瓶颈"时,通常指GPU供应不足;但物理层面的瓶颈可能是——地球散热速度跟不上AI发热的速度。
微软海底数据中心项目Project Natick的评估报告显示,水下服务器的故障率仅为陆地的八分之一,主要受益于稳定的低温环境。但海底电缆的铺设成本和维护难度,限制了大规模复制。
更现实的短期方案可能是"热再利用"——把数据中心的废热导入区域供暖系统。芬兰和瑞典已有先例,但在气候温暖的地区,冬季供暖需求不足以消化全年持续的热排放。
当AI遇见热力学第二定律
所有计算都是不可逆的热力学过程。这是兰道尔原理的冷酷结论:每擦除一比特信息,至少需要消耗kT ln 2的能量,并以热量形式耗散。
AI模型的参数规模从十亿到万亿,训练和推理过程中的信息擦除操作以泽字节计。我们习惯于用"智能涌现"描述AI的能力跃迁,却很少谈论与之伴生的"熵增涌现"。
剑桥研究的贡献,是把热力学后果从抽象的"能源消耗"翻译成具体的"温度地图"。当你看到3.6华氏度的平均升温、16.4华氏度的极端案例、6.2英里的影响半径时,兰道尔原理不再是物理教科书上的脚注,而是弗吉尼亚州某户居民夏夜难以入睡的体感。
马里诺尼的警告值得重复:「这些影响在很大程度上被忽视了。」
不是被否认,而是被归类为"外部性"——经济学中指那些未被市场价格反映的社会成本。数据中心的PUE可以优化到1.1以下,但PUE不测量周边社区的温度计读数。
3.4亿人的空调账单该找谁报销
研究发表后,业界反应呈现典型的"风险分散"模式。云厂商强调可再生能源采购和液冷投资,行业协会呼吁更多研究而非立即监管,学术圈则开始争论热岛效应与全球变暖的归因比例。
没人愿意率先把"热排放"纳入ESG披露标准。这相当于主动认领一笔尚未被起诉的债务。
但物理事实不依赖会计确认。剑桥团队的数据已经存在,卫星还在持续拍摄,而AI基础设施的建设速度——2024年全球数据中心投资预计超过3000亿美元——意味着热岛效应的"本金"正在滚雪球。
一个可能的方向是"热预算"制度:类似碳排放配额,为数据中心分配可向周边环境排放的热功率上限。但这需要解决测量、验证、跨境协调等一系列难题,而AI竞赛的时间压力不等人。
更激进的设想来自气候工程领域:如果数据中心的废热可以被定向收集并用于碳捕获,是否能把负外部性转化为正贡献?这听起来像科幻,但微软已经与碳清除公司Climeworks签署协议,探索直接空气捕获设施与数据中心的共址部署。
用AI的热量去驱动减少AI碳足迹的机器——这种循环结构,像是科技行业给自己设计的救赎叙事。
但技术可行性不等于经济可行性。碳捕获的能耗成本目前远高于碳市场价格,除非政策强制或碳价飙升,否则"热-碳"循环将停留在示范阶段。
回到马里诺尼的原始发现:6000座设施、20年数据、3.4亿受影响人口。这些数字描绘的不是末日场景,而是一个渐进暴露的系统风险。就像他用的那个比喻——「像许多小火」——单座数据中心的热效应或许可控,但数千座设施的叠加,正在重塑区域气候的微观结构。
而我们对这种重塑的理解,才刚刚起步。
当你的智能助手下次流畅生成一段代码或一张图片时,它消耗的电力正在某处转化为热量,可能影响着一个你从未听说过的社区的温度计。问题是:这个成本该由谁、以什么方式、在什么时候计入账单?
热门跟贴