公众号记得加星标⭐️,第一时间看推送不会错过。
多年来,超大规模云服务商和云平台构建商一直主导着IT支出和系统架构方面的讨论。但如今,人工智能模型构建商,尤其是Anthropic和OpenAI,在巨额基础设施投资方面已与它们并驾齐驱,它们的所作所为——以及不作为——也正在塑造着人工智能领域的格局。
为了对人工智能基础设施进行这些投资,人工智能模型构建者自身也必须从投资者那里筹集巨额资金——有时甚至包括他们的人工智能计算引擎供应商,这确实有点像循环投资。英伟达、AMD、亚马逊网络服务、微软Azure和谷歌都对OpenAI和Anthropic进行了投资,帮助它们启动人工智能工作负载,这反过来又将在未来随着更多人使用人工智能应用而促进更大规模的人工智能系统销售。
Anthropic 目前发展迅猛,这主要得益于其 Claude 模型的代码助手版本。事实证明,代码助手是 GenAI 的杀手级应用,这令全球数百万程序员颇为不满,但对于那些已经掌握了如何让数百个 AI 编码代理全天候不间断地参与软件项目的项目经理来说,却并非如此。尽管 GenAI 模型生成的代码质量饱受诟病,但或许 AI 模型带来的收入才是人们对这一理念充满热情的最主要体现,即便自动化编程存在诸多不足。
鉴于 Anthropic 在代码助手领域的领先地位及其随之而来的更迅猛的收入增长,其近期的收入曲线或许比 OpenAI 更能反映实际情况。杰富瑞 (Jeffries) 的股票分析师 Brent Thrill 和 Blayne Curtis 一直在追踪这两家 AI 模型构建公司的年化收入增长率。今年 2 月,Anthropic 约有 500 家客户每年支付 100 万美元或以上的费用购买 Claude 模型的授权,而本周该公司表示,这一数字已经翻了一番多。两年前,Anthropic 的整体收入增长轨迹(包括通过 AWS Bedrock 和 Google Vertex 转售 Claude 模型所得的毛收入以及 Anthropic 的任何直接销售额)低于 OpenAI 公布的净收入数据,且增长速度也更慢。OpenAI 的净收入数据包括 OpenAI 从 Google、AWS 和 Microsoft 获得的净收入以及直接 API 收入。但今年年初,OpenAI 的收入略有下滑(从 250 亿美元的 ARR 降至 240 亿美元的 ARR),而 Anthropic 的收入则从今年 2 月的 140 亿美元 ARR 加速增长至本周的 300 亿美元 ARR。
为了好玩,我们请 Claude 上网搜索,并制作了一张 OpenAI 和 Anthropic 的相对年度经常性收入 (ARR) 图表。请看:
这些数据与杰富瑞团队一直在追踪的数据相符,这也是我们让克劳德制作这张图表的唯一原因。这种情况在The Next Platform这里并不常见。请记住,一种统计的是客户层面的收入,另一种统计的是公司实际收到的收入。IDC和Gartner在统计方式上也有类似的划分。IDC一直统计的是“工厂收入”——供应商的直接销售额加上分销渠道的销售额,而Gartner统计的是最终用户的支出,其中包含了渠道成本。我们不清楚Anthropic的渠道成本是多少,因此很难将其与OpenAI进行完全匹配。显而易见的是,Anthropic正在蓬勃发展,而OpenAI可能没有,这对今年试图上市的OpenAI来说并非好事,但对同样计划在今年上市的Anthropic来说却是一件好事。
对于萨姆·奥特曼及其团队来说,或许更令人担忧的是,根据目前的营收增长率来看,OpenAI 的估值相对于 Anthropic 而言过高。OpenAI 的累计融资额很难精确估算,但各种估计值介于 1680 亿美元至 1990 亿美元之间,其上一轮融资额为 1220 亿美元——其中大部分来自英伟达、亚马逊和软银——这使得 OpenAI 的估值达到了 8520 亿美元。
但是,Anthropic凭借Claude Code在代码助手领域取得了OpenAI Codex未能企及的成功,虽然营收增长强劲,但其投资者数量远不及OpenAI Codex,因此也无需承受创纪录的IPO压力。考虑到两家公司的相对盈利能力——我指的是亏损与营收的比率,因为两家公司在下一个十年开始之前都几乎没有盈利的希望,而且即便如此也未必能够实现——Anthropic或许比OpenAI更值得拥有更好的IPO,尽管其总融资额仅为670亿美元左右,估值却高达3800亿美元。
每个人都在关注着一个关键问题——华尔街、普通民众、你的出租车司机、你的妈妈——OpenAI 和 Anthropic 正在追逐的收益需要大量的代币交易。Anthropic 的高层正在绞尽脑汁地思考如何筹集资金,以构建满足未来代币需求的基础设施。
因此,博通今天向美国证券交易委员会提交的 8-K 文件中宣布的博通与谷歌和 Anthropic 之间的扩大协议,将使谷歌和 Anthropic 获得更多技术资源。Anthropic 与谷歌既是竞争对手,又是竞争对手,因为它与谷歌的 Gemini 模型竞争,但也使用谷歌的 TPU 基础设施来训练和推理 Claude 模型。
目前有两件事正在发生。首先,谷歌与博通签署了一项长期协议,共同开发和制造未来的TPU,并签署了一份供应保障协议,确保谷歌机架式系统所使用的网络和其他组件的供应,该协议有效期至2031年底。据我们所知,联发科也在帮助谷歌设计和制造未来的TPU,但这些似乎是主流计算引擎的衍生产品——传闻中指的是TPU v7、TPU v8和TPU v9的衍生版本。谷歌希望为其人工智能计算引擎寻找第二个供应商以降低风险,这可以理解。
同样,Anthropic 也必须通过与 AWS 合作开发 Trainium,与 Google 合作开发 TPU,与 Nvidia 合作开发 GPU,或许不久的将来还会与 AMD 合作开发 GPU,来降低风险。因此,Anthropic 目前在 Google Cloud 上租用 TPU 容量,但计划在 2027 年在其自有数据中心部署由 Broadcom 制造并经 Google 授权的 TPU 机架。如果 Nvidia 的 AI 系统及其数据中心——公认的 AI 训练和推理领域的“凯迪拉克”——每吉瓦的成本约为 500 亿美元(Nvidia 联合创始人兼首席执行官黄仁勋曾多次提及这一数字),那么可以合理推断,TPU 基础设施的成本可能仅为每吉瓦 300 亿至 350 亿美元。
因此,将容量提升至 3.5 吉瓦将为博通带来更多收益,而根据谷歌向博通转售其 TPU 给 Anthropic 的收费标准,这部分新增成本将降低谷歌自身的 TPU 支出。从某种意义上说,谷歌正在将博通转变为 Anthropic 的 OEM 厂商,并在其云硬件部门获得收入,从而抵消自身的 TPU 成本。如果谷歌收取 25% 的加价,那么如果它能找到足够多的客户购买其所需 TPU 数量的四倍,它就可以免费获得自己的 TPU,并通过在云端出租自己的 TPU 来赚取丰厚的利润。从长远来看,人工智能模型构建者不会在云端租用大量的容量。他们会要求云服务商以低价向他们出售基础设施,以便他们摊销成本,从而降低代币的成本。
谷歌的另一个选择是失去 Anthropic 这个客户,让它自行创建 AI XPU,或者与 AWS、微软或 Meta Platforms 达成类似的协议。
现在,Anthropic 必须在 2027 年筹集资金来购买这套设备,这也是为什么它选择在 2026 年进行 IPO 而不是现在就部署这套 TPU 设备的原因。在此期间,Anthropic 将在 Google Cloud 上租用 TPU 容量,在 AWS 上租用 Trainium 容量,支付高昂的费用,勉强维持运营。
对于博通而言,在英伟达频繁出击,甚至与Marvell结盟的当下,这个合作算是为他们扳回了一局。
NVLink 授权重塑半导体联盟格局
2025年9月,英伟达首席执行官黄仁勋与英特尔首席执行官帕特·盖辛格罕见地共同出席了一场直播活动,宣布对英特尔进行50亿美元的股权投资。2026年3月,英伟达又向Marvell Technology投资了20亿美元。黄仁勋为何如此积极地投资潜在竞争对手,至今仍是个谜。
协议明确要求 Marvell 支持英伟达授权的 NVLink Fusion 接口。更具体地说,Marvell 将提供定制的 XPU 以及与 NVLink Fusion 兼容的可扩展互连网络。然而,这并不一定意味着 Marvell 会支持英伟达的 NVSwitch。公告的措辞表明,Marvell 可能会通过 UALink 或 PCI-Express 6.0 交换机来支持 NVLink 协议。
NVLink Fusion也是英伟达与英特尔合作的关键要素。黄仁勋将人工智能工厂列为未来五年的战略重点。在这一产业转型过程中,每个人工智能工厂的需求各不相同,最佳的人工智能基础设施配置也会有所差异。自2025年起,英伟达已稳步扩展了NVLink Fusion的访问权限,以服务于这一新兴的人工智能工厂生态系统。
NVLink 是英伟达专有的高速互连技术,它通过增强通信带宽,使数据中心中的 GPU 能够作为一个统一的系统运行。与 PCIe 5.0 (128 GB/s) 相比,NVLink 的带宽最高可提升 14 倍,但以往仅支持英伟达自身的生态系统。
现在,英伟达正在部分开放这项技术,允许客户对其人工智能工厂进行半定制化配置。这包括将客户偏好的CPU与英伟达GPU搭配使用,或将英伟达GPU与其他定制人工智能芯片集成。
尽管像谷歌的TPU这样的替代方案可能提供更低的总体拥有成本,但英伟达的竞争优势在于其CUDA生态系统和不断扩展的软件栈。NVLink Fusion有效地向新进入者开放了英伟达的AI生态系统,尤其是那些旨在进军ASIC市场的公司。然而,这一战略也引发了人们对英伟达自身产品需求可能被稀释的担忧,这也解释了人们对黄仁勋与英特尔和Marvell等竞争对手接触的质疑。
黄仁勋的首要任务并非仅仅是销售更多芯片,而是将更广泛的人工智能产业纳入CUDA生态系统。理论上,NVLink Fusion能够将谷歌TPU、AWS Trainium、微软Maia以及Meta的MTIA等平台无缝集成到人工智能工厂架构中。
实际上,联发科和Marvell等公司已经承诺使用NVLink Fusion技术构建定制AI芯片,而富士通和高通则计划围绕该技术开发定制CPU。在主要的半导体厂商中,英特尔已经加入这一生态系统,而AMD可能永远不会参与其中。这就引出了一个问题:博通会不会成为下一个?
在 2025 年台北国际电脑展上,黄仁勋发布了一系列人工智能概念和产品,但从未来五到十年来看,NVLink Fusion 最终可能会成为最具影响力的成果。
博通的市场地位独树一帜。它为谷歌设计TPU,为Anthropic生产TPU机架,并为Meta公司制造MTIA XPU。有报道称,字节跳动和苹果也是其XPU的重要客户,而OpenAI则委托博通开发其Titan XPU。
如果这些超大规模云服务提供商 (CSP) 希望采用 NVLink Fusion,那么问题就变成了英伟达和博通能否达成和解并达成协议。这样的协议很可能涉及深入的技术合作,类似于英伟达与 Marvell 的合作模式。
尽管博通在网络扩展领域仍是英伟达的竞争对手,但它也是多个领域的重要供应商。鉴于其在以太网交换机ASIC领域的统治地位以及快速增长的定制XPU业务,博通或许是唯一能够有效制衡英伟达不断扩大的影响力的企业。
(来源:编译自nextplatform)
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4370内容,欢迎关注。
加星标⭐️第一时间看推送
求推荐
热门跟贴