一家成立不到四年的AI公司,年收入从90亿飙到300亿美元,只用了四个月。现在它开始琢磨一件更烧钱的事:自己造芯片。
这相当于刚学会开车的司机,突然想自己组装发动机。
路透社周四援引三位知情人士的消息,Anthropic正在探索自研AI芯片的可能性。项目尚处早期——没有确定设计方案,没有组建专门团队,一切都还在纸面推演阶段。公司发言人对报道不予置评。
300亿营收背后的算力焦虑
Anthropic本周早些时候披露,其年化收入运行率(annualised revenue run rate)已突破300亿美元,而2025年底这个数字还只有90亿。四个月内翻三倍,增速甚至让OpenAI的早期扩张都显得保守。
但收入暴涨带来了一个甜蜜的负担:算力需求呈指数级膨胀。Anthropic目前运行Claude的芯片组合堪称"联合国"——Google的张量处理单元(TPU,Tensor Processing Unit)、Amazon的自研芯片、Nvidia的GPU混着用。公司官方说法是"把任务匹配给最适合的芯片",翻译成人话就是:谁家便宜/有货/性能好就用谁。
这种策略在扩张期够用,但当你的模型参数和用户需求同时爆炸时,供应链的脆弱性就成了命门。2025年AI芯片市场的主旋律是"缺货"和"涨价",Anthropic的工程师们大概没少凌晨三点被叫起来改调度策略。
3.5吉瓦的Google订单:铺垫还是退路
就在路透社报道前几天,Anthropic刚签了一份长期协议:从2027年起获得Google和Broadcom提供的约3.5吉瓦TPU算力。这个数字是2026年初消耗量(约1吉瓦)的三倍,直接写进了Broadcom的SEC文件。
这份文件里有个耐人寻味的条款:扩容部署"取决于Anthropic持续的商业成功"。监管文件里很少见这种对冲措辞,相当于Broadcom在说——我们可以给你留产能,但你要是卖不动了,这单子随时缩水。
这笔交易建立在Anthropic 2025年11月承诺的500亿美元美国算力基础设施投资之上。一边大举采购第三方算力,一边偷偷摸摸研究自研芯片,Anthropic在玩一种很新的风险管理:鸡蛋分开放,篮子自己造。
自研芯片:500万美元的入场券
路透社援引行业消息人士称,开发一枚先进AI芯片的成本约5亿美元。这笔钱要烧在招专门的芯片工程师、验证制造工艺、流片测试上。对于一家尚未盈利的创业公司,这不是小数目。
但放在300亿美元年收入的背景下,5亿相当于两个星期的营收。Meta和OpenAI已经在走这条路,Anthropic跟进并不意外。芯片自研的核心诱惑在于:一旦成功,单颗推理成本可能下降30%-50%,长期算力支出的结构性优化比任何融资都值钱。
Broadcom的角色值得玩味。它既是Google TPU的联合设计方,又是OpenAI的芯片合作伙伴,还有第五个未公开的XPU客户。这家公司在定制AI芯片市场的枢纽地位,让它成了大模型公司的"军火商"——不管你们谁赢,我卖铲子。
Anthropic如果最终选择自研,Broadcom大概率仍是其制造环节的合作伙伴。这种"设计自主、制造外包"的模式,是Fabless(无晶圆厂)半导体行业的标准玩法,也是创业公司最现实的路径。
早期探索的真实含义
需要冷静看待"探索"这个词。知情人士强调,Anthropic尚未承诺具体设计,也未组建专门团队。在科技行业,"探索"可以指 anything from 几个工程师写了几页PPT,到已经交了数千万美元流片定金。
更可能的场景是:Anthropic的芯片团队在评估不同方案——全自研、半定制、或者深度绑定某家供应商的联合开发。Google的TPU合作已经证明这种模式可行,Amazon的Trainium/Inferentia路线也提供了参照。
一个细节是,Anthropic目前对Claude的芯片调度策略是"混合负载"。这种技术积累会成为自研芯片的需求输入:他们比任何人都清楚,哪些运算瓶颈是现有芯片解决不了的。
芯片设计本质上是把软件需求硬化成硅片。Anthropic的算法团队如果能把"Transformer推理的某个特定模式"明确传达给芯片架构师,就有机会做出比通用GPU效率高得多的专用加速器。
这解释了为什么收入规模是关键转折点。只有当你的模型调用量足够大时,专用芯片的摊销成本才能打平。90亿美元年收入时,自研芯片是奢侈品;300亿时,它变成了值得建模分析的选项。
行业格局的连锁反应
Anthropic的动向对Nvidia不是好消息,但也不算致命打击。300亿美元收入的公司探索自研,意味着AI芯片市场正在分层:头部玩家追求定制化,腰部玩家继续买现货,长尾用云厂商的托管服务。
Nvidia的真正风险在于"习惯养成"。如果Anthropic、OpenAI、Meta的自研芯片在特定场景下证明可行,更多中等规模公司会跟进。这个趋势在智能手机市场发生过一次:苹果自研A系列芯片成功后,三星、华为、小米纷纷跟进,高通的市场份额被逐步蚕食。
但AI芯片的复杂度远超手机SoC。训练大模型需要的互联带宽、内存容量、散热设计,让自研门槛高得多。Anthropic的"探索"能否转化为量产芯片,2026-2027年会是关键观察窗口。
一个有趣的对比是OpenAI。Sam Altman多次公开谈论自研芯片,但进展似乎不如预期顺利。Anthropic选择低调"探索"而非高调宣布,可能是吸取了同行的教训——在芯片行业,话不能说太满,流片失败是常态。
Google和Amazon的芯片路线也给Anthropic提供了参照系。Google用TPU服务自家模型十多年,对外商用是近年的事;Amazon的芯片主要服务AWS客户,自用比例有限。Anthropic如果自研,会走哪条路?是仅供内部Claude使用,还是像Google一样最终对外开放?
这个问题现在没有答案,但会影响整个行业的算力定价。如果Anthropic芯片最终对外出租,它将从AI公司变成云厂商的竞争者——这个身份转换的战略含义,比5亿美元开发成本更值得玩味。
回到那个最初的类比:刚学会开车的司机想组装发动机。Anthropic的特殊之处在于,它的"车"正在以每月新增数十亿美元的速度变大。当车速足够快时,自己造发动机就不再是狂妄,而是一种必要的保险。
一位接近Anthropic的工程师在匿名论坛提到,公司内部对自研芯片的讨论集中在"2028年后是否还有足够的第三方产能"。这个问题没有确定答案,但提问本身已经说明了很多。
热门跟贴