3万亿美元砸下去,不是为了炫技,而是真有人信“现在建,十年后就能回本”。

打开网易新闻 查看精彩图片

赵海军说1到2年就能建完一个顶配数据中心,但那里面塞的服务器,可能还没等到客户来,芯片就过时了。Meta自己都承认,六成以上AI算力在跑实验模型,连个能收费的功能都没上线。中芯国际财报里写得清楚:AI订单多,可良率跟不上,赚钱不快,反而毛利被拖着走。

微软说设备寿命2到6年,Meta咬定芯片能用5.5年。听着挺稳,其实全是给自己留后路——技术更新太快,三年就掉价七成。英伟达H100去年还是抢手货,今年二手价只剩原价的23%。按这速度算,全球云厂明年光折旧就得补1760亿,比不少国家一年财政还多。

更麻烦的是,机器不能关。一关,固件落伍、散热系统老化、安全补丁跟不上。现在新建的数据中心,平均只上架了不到四成服务器,剩下那些全开着机,不干活,光耗电。美国能源部数据说,闲置1%,一年就白烧1.2TWh电——够小半个芝加哥用一年。

这和20年前挖光纤不太一样。那时光铺线不接头,线自己不会坏,也不用电。现在这些服务器,开机就是烧钱,待命比干活还费电,业内管这叫“温闲置”:没活干,但风扇照转,电费照交,连散热都不省。

金融玩法已经跑在技术前面了。科技公司把数据中心打包成债券卖出去,风险甩给投资者;电费和散热成本最后摊到你我手机账单里;各地发的补贴,表面支持AI,实则是在补资本开支的窟窿。SEC现在的会计准则,根本不要求企业说明“这堆GPU明年还能不能值钱”。

有人试过改。中芯搞HBM封装技术,让服务器能一块一块加内存,不用整台换;也有人提建个AI算力期货市场,像买电一样对冲风险。还有地方开始逼企业写清楚:投一千台GPU,到底带来了多少付费用户?模型跑多久才真正赚到钱?

国家级调度平台也在试点,不让大家各建各的,重复盖楼。但建归建,用归用,建得再快,没订单也是摆设。

PUE降到1.05,听起来很牛。可机房里三分之一的机器亮着灯,却没人往里输数据。

我们到底是在修路,还是修了一条没人要走的隧道?