就在最近,亚马逊往Anthropic账上又转了58亿美元。
加上此前的投资,亚马逊在这家大模型公司身上累计投入接近100亿美元。
但这笔钱里,真正值得关注的不是那串数字,而是一个附带的承诺,Anthropic同意在未来十年,从亚马逊租用5GW的AI算力。
相当于五座中型核电站的发电量,或者够大半个伦敦的家庭同时开灯。
这是一份涵盖未来十年的深度绑定协议。
一、58亿美元,买下了一份怎样的清单?
这笔钱不是白拿的,协议里有三个极其具体的硬指标。
第一,Anthropic将把亚马逊旗下的AWS,作为首要的云服务提供商。
第二,Anthropic不仅要用亚马逊的云,还要大规模使用亚马逊自研的AI芯片,Trainium和Inferentia,来训练他们最核心的基础模型。
第三,也是整份协议里最特殊的一项,Anthropic承诺,在未来十年内,从亚马逊租赁高达5GW(吉瓦)的AI算力规模。
这三个条款并排放在一起,实际上拼凑出了一张极度清晰的物理大网。
很多人看到这个消息,第一反应是,亚马逊在押注Anthropic能打赢OpenAI。
但现在顶级AI公司的竞争,早就不是单靠写代码能决定的了。
二、有钱也买不到的东西
目前的行业常识是,训练最顶级的大模型,几乎离不开英伟达的GPU。
但在这份协议里,亚马逊把自家的Trainium芯片塞进了Anthropic的核心训练流里。
“现在所有云厂商都在砸钱自研AI芯片,难点不在流片,而在没人敢用。”知情人士称。
他认为,训练一个千亿参数的模型,如果底层芯片的工具链和算子适配出一点毛病,几个月的训练时间和几千万美元的电费就直接打水漂了。
所以,普通的AI公司根本不敢拿自己的前途,去给云大厂的自研芯片做测试。
但Anthropic不同。
作为目前业内唯一能跟OpenAI在底层模型上掰手腕的团队,如果他们能用亚马逊的芯片跑出最顶级的模型效果,这就等于向全行业证明了一件事。
证明亚马逊的底层硬件,能够作为英伟达之外的第二选择。
对亚马逊来说,扶持Anthropic,一方面是投资一家有竞争力的大模型公司,另一方面也是给自己的芯片业务找到一个真实的验证场。
但为什么Anthropic愿意签一份十年的深度捆绑算力协议?只是为了钱吗?
业内人士指出:“现在AI圈最稀缺的不是资金,而是电力和数据中心机位。”
大模型每更新一个版本,对算力的需求基本都是成倍增长。
但目前Anthropic的算力供给还跟不上这个速度。
一台AI芯片不难买,难的是,你得有地方放它,有足够的电给它,还得有人维护这一整套基础设施。
现在有一个现实的问题,很多公司有钱、有芯片,但找不到合适的数据中心,或者当地电网容量不够,项目就这么卡着。
亚马逊这份协议,实际上就是给Anthropic解决了这些后顾之忧。
算力、机房、电力供应,十年内由AWS来保障。
Anthropic只需要专注模型研发,基础设施的问题交给亚马逊。
作为交换,Anthropic的算力需求深度绑定在了AWS生态里。
对双方来说,这都是买到了用钱都买不来的东西。
三、从“写代码”到“圈地盖厂”
Anthropic没有买楼,也没有买地,它提前锁定了未来十年内、高达5座核电站级别的算力消耗。
这几乎是近2年AI圈的叙事变化的缩影。
2022年、2023年,大家谈的是算法突破、模型能力、各种新的Demo。
到了2024年、2025年,讨论最多的话题变成了,谁拿到了核电站合作协议,谁在哪个州买了多少电力配额,谁的数据中心扩张计划是多少吉瓦。
这个转变,有点像互联网早期的变化过程。
最开始大家觉得互联网是虚拟的、轻资产的。
后来才发现,互联网的底座是遍布全球的海底光缆和一排排服务器。
现在的AI也在经历类似的过程。
Anthropic在模型能力上是公认的头部选手,Claude系列在业内的口碑不差。
但即便如此,它也需要一个拥有大规模基础设施的合作方来支撑运营。
业内有人把这件事看作一个信号,认为AI行业正在进入重资产阶段。
模型能力是一方面,但能不能获得稳定、大规模的算力供给,也开始成为各家公司之间一个实打实的门槛。
那些没有大厂站台或者足够资金支撑基础设施的独立模型团队,接下来面对的压力会更大。
AI行业的门票已经贵到了只有万亿市值巨头才玩得起的地步。
▌▌▌▌▌▌▌▌▌▌
当最先进的数字大脑,必须依附于最庞大的物理发电机组时。
决定未来的,或许不再是谁拥有最聪明的算法,而是谁手里握着那个能够输出5GW能量的物理开关。
AI所承诺的那种“技术平权”,到底是离我们更近了,还是更远了?
热门跟贴