就在最近,亚马逊往Anthropic账上又转了58亿美元。

加上此前的投资,亚马逊在这家大模型公司身上累计投入接近100亿美元。

但这笔钱里,真正值得关注的不是那串数字,而是一个附带的承诺,Anthropic同意在未来十年,从亚马逊租用5GW的AI算力。

相当于五座中型核电站的发电量,或者够大半个伦敦的家庭同时开灯。

这是一份涵盖未来十年的深度绑定协议。

打开网易新闻 查看精彩图片

一、58亿美元,买下了一份怎样的清单?

这笔钱不是白拿的,协议里有三个极其具体的硬指标。

第一,Anthropic将把亚马逊旗下的AWS,作为首要的云服务提供商。

第二,Anthropic不仅要用亚马逊的云,还要大规模使用亚马逊自研的AI芯片,Trainium和Inferentia,来训练他们最核心的基础模型。

第三,也是整份协议里最特殊的一项,Anthropic承诺,在未来十年内,从亚马逊租赁高达5GW(吉瓦)的AI算力规模。

这三个条款并排放在一起,实际上拼凑出了一张极度清晰的物理大网。

很多人看到这个消息,第一反应是,亚马逊在押注Anthropic能打赢OpenAI。

但现在顶级AI公司的竞争,早就不是单靠写代码能决定的了。

二、有钱也买不到的东西

目前的行业常识是,训练最顶级的大模型,几乎离不开英伟达的GPU。

但在这份协议里,亚马逊把自家的Trainium芯片塞进了Anthropic的核心训练流里。

“现在所有云厂商都在砸钱自研AI芯片,难点不在流片,而在没人敢用。”知情人士称。

他认为,训练一个千亿参数的模型,如果底层芯片的工具链和算子适配出一点毛病,几个月的训练时间和几千万美元的电费就直接打水漂了。

所以,普通的AI公司根本不敢拿自己的前途,去给云大厂的自研芯片做测试。

但Anthropic不同。

作为目前业内唯一能跟OpenAI在底层模型上掰手腕的团队,如果他们能用亚马逊的芯片跑出最顶级的模型效果,这就等于向全行业证明了一件事。

证明亚马逊的底层硬件,能够作为英伟达之外的第二选择。

对亚马逊来说,扶持Anthropic,一方面是投资一家有竞争力的大模型公司,另一方面也是给自己的芯片业务找到一个真实的验证场。

但为什么Anthropic愿意签一份十年的深度捆绑算力协议?只是为了钱吗?

业内人士指出:“现在AI圈最稀缺的不是资金,而是电力和数据中心机位。”

大模型每更新一个版本,对算力的需求基本都是成倍增长。

但目前Anthropic的算力供给还跟不上这个速度。

一台AI芯片不难买,难的是,你得有地方放它,有足够的电给它,还得有人维护这一整套基础设施。

现在有一个现实的问题,很多公司有钱、有芯片,但找不到合适的数据中心,或者当地电网容量不够,项目就这么卡着。

亚马逊这份协议,实际上就是给Anthropic解决了这些后顾之忧。

算力、机房、电力供应,十年内由AWS来保障。

Anthropic只需要专注模型研发,基础设施的问题交给亚马逊。

作为交换,Anthropic的算力需求深度绑定在了AWS生态里。

对双方来说,这都是买到了用钱都买不来的东西。

三、从“写代码”到“圈地盖厂”

Anthropic没有买楼,也没有买地,它提前锁定了未来十年内、高达5座核电站级别的算力消耗。

这几乎是近2年AI圈的叙事变化的缩影。

2022年、2023年,大家谈的是算法突破、模型能力、各种新的Demo。

到了2024年、2025年,讨论最多的话题变成了,谁拿到了核电站合作协议,谁在哪个州买了多少电力配额,谁的数据中心扩张计划是多少吉瓦。

这个转变,有点像互联网早期的变化过程。

最开始大家觉得互联网是虚拟的、轻资产的。

后来才发现,互联网的底座是遍布全球的海底光缆和一排排服务器。

现在的AI也在经历类似的过程。

Anthropic在模型能力上是公认的头部选手,Claude系列在业内的口碑不差。

但即便如此,它也需要一个拥有大规模基础设施的合作方来支撑运营。

业内有人把这件事看作一个信号,认为AI行业正在进入重资产阶段。

模型能力是一方面,但能不能获得稳定、大规模的算力供给,也开始成为各家公司之间一个实打实的门槛。

那些没有大厂站台或者足够资金支撑基础设施的独立模型团队,接下来面对的压力会更大。

AI行业的门票已经贵到了只有万亿市值巨头才玩得起的地步。

▌▌▌▌▌▌▌▌▌▌

当最先进的数字大脑,必须依附于最庞大的物理发电机组时。

决定未来的,或许不再是谁拥有最聪明的算法,而是谁手里握着那个能够输出5GW能量的物理开关。

AI所承诺的那种“技术平权”,到底是离我们更近了,还是更远了?