打开网易新闻 查看精彩图片

作者 | 由仪

编辑 | 葛覃

在AI这个裹挟着狂热、泡沫与大国博弈的修罗场里,Anthropic长期以来都是一个异类。

这两天,Anthropic再次被推到风口浪尖。导火索不是其模型又刷新了什么行业榜单,而是它正被夹在一场极其微妙的权力博弈缝隙中,进退两难。

一边是五角大楼的最后通牒:美国国防部长皮特·海格塞斯直接给Anthropic首席执行官达里奥·阿莫代伊下了死命令,要么放开Claude的军事使用限制,要么就在本周五彻底退出美国政府采购名单。

而就在半个月前,Anthropic刚完成300亿美元的G轮融资,估值一路飙升至惊人的3800亿美元,一度坐稳AI独角兽的头把交椅。

紧接着,Anthropic公开发难,直指DeepSeek、月之暗面(Moonshot)、MiniMax(稀宇科技)三家中国AI独角兽,称它们正通过“工业级规模”的非法手段,“蒸馏”Claude 4.6 Opus的核心能力。

这几件事乍看起来似乎毫不关联,但内里的逻辑耐人寻味,它揭示了Anthropic是如何一步步走向自己的对立面——一家原本打着“AI安全”旗号的实验室,如何在资本、技术与地缘政治的绞肉机里,被推着长成一个言行不一的庞然大物。

七个叛逃者,与“AI宪法”的梦想

故事的开始总是很美好,带着一丝理想主义。

2021年,当萨姆·奥特曼带着OpenAI疯狂拥抱微软、一头扎进商业化的快车道时,时任OpenAI研究副总裁的达里奥·阿莫代伊,带着妹妹丹妮拉及一众核心成员,毅然选择离职。

他们的离职理由,在当时看来甚至有些矫情:他们认为OpenAI的发展路径不够安全,萨姆·奥特曼的商业化激进策略,无异于在玩火。

就这样,Anthropic应运而生。

这家公司的基因里,刻着一种深刻的不信任感——对人类无限欲望的不信任,对AI失控风险的深层恐惧。为了破解这个核心焦虑,他们提出了一个改写行业规则的概念:宪法AI(Constitutional AI)。

宪法AI的核心逻辑很简单,为AI模型预设一套明确的行为准则,引导模型在自我学习与迭代过程中自主遵循这些规则,从而减少有害、偏见或不合规内容的输出,从技术根源上解决AI对齐问题。

打开网易新闻 查看精彩图片

在此之前,AI对齐(Alignment)的主流路径,是依赖昂贵的人类反馈强化学习(RLHF)——说白了,就是雇一群人给AI的输出打分,明确告知它什么能说、什么不能说。但在Anthropic看来,这种方式充满了人类的主观偏见,并非长久之计。

他们给AI量身定制了一套“宪法”(参考《联合国人权宣言》等国际准则),让一个AI(扮演“老师”角色)去训练另一个AI(扮演“学生”角色),试图让它从逻辑底层就明白:即便无人监督,也必须坚守“向善”的底线。

相较于传统的RLHF框架,宪法AI在成本控制、主观性规避与规模化扩展上,都具备显著优势,尤其适配金融、医疗等严监管行业的需求。

这也是为什么,很长一段时间里,Claude总被吐槽“过于礼貌”“太白左”,但恰恰是这种对“安全”的洁癖,让它成为金融、医疗等对合规性要求极高的行业的首选工具。

微软将OpenAI紧紧攥在手里、形成排他性合作时,其他科技大厂彻底慌了。谷歌与亚马逊像溺水者抓住救命稻草一般,疯狂向Anthropic砸钱,生怕错过这张“AI安全牌”。

亚马逊之所以敢在今年2月领投那笔惊天动地的300亿美元融资,核心原因的是,Anthropic在当月推出了Claude Opus 4.6——这款模型不仅在代码生成领域将竞争对手甩开一个身位,更关键的是,它具备了成熟的“自主智能体(Agentic)”能力。

Anthropic近期发布的报告显示,Claude在开源代码库里一次性挖出500个高危0-day漏洞,其中部分漏洞已隐藏数十年未被发现,消息一出,直接引发SaaS软件股集体大跌。

既要又要的Anthropic,习惯了贪婪

Anthropic的融资历程,堪称“火箭式增长”:2023年2月,获得谷歌3亿美元投资,谷歌持股比例达10%;同年5月,完成4.5亿美元C轮融资;2025年9月,F轮融资募集130亿美元,估值跃升至1830亿美元;2026年2月,G轮融资再添300亿美元,估值飙升至3800亿美元,跻身AI行业估值最高的独角兽行列。

其资本布局的核心策略,是“不绑定单一巨头”——与谷歌、亚马逊、微软、英伟达等多家科技巨头建立深度合作,接入微软Azure云、适配谷歌TPU、入驻AWS Bedrock、优化英伟达GPU适配,最终形成了一套独特的产业资本协同生态。

这种“左右逢源”的模式,让Anthropic尝到了所有甜头:既拿到了资金、算力等核心资源,又成功避免了被单一资本控制的风险。

比如,Anthropic在多轮融资中始终保留“一票否决权”,达里奥曾公开表态,接受资本支持的核心目的,是为了更好地推进技术研发,而非成为资本的傀儡。但在更多人看来,Anthropic的真实想法,或许只是“既要又要”——既想拿资本的钱,又想握自己的权。

马斯克就曾多次公开吐槽Anthropic,称其“一边散布AI恐慌、游说反对开源AI,阻止普通人运行自己的模型,一边打着‘安全’的旗号搞控制与垄断,别有用心且恶意满满”。

打开网易新闻 查看精彩图片

在商业化路径上,Anthropic选择了与OpenAI截然不同的方向:弱化C端市场布局,重点深耕企业服务领域,凭借高合规性与专业能力,收获了大量高价值客户的认可。

数据最能说明问题:Anthropic约80%的收入来自企业客户,2025年收入增长至45亿美元,预计2026年有望突破200亿美元,成为全球增长最快的软件公司之一。

截至2025年底,其企业客户数量已达30万,覆盖金融、法律、政府、科技等强监管领域,其中92%的财富500强企业都是其客户,另有9家大客户年付费超1亿美元——微软便是其中之一,每年为其贡献超5亿美元收入。

Anthropic的商业化模式,主要依托三大板块:其一,高价值企业客户战略,聚焦对AI安全性、隐私性、可解释性有刚性需求的领域,目前美国联邦总务管理局已将Claude纳入政府AI供应商清单,财政部、人事管理办公室等机构均有明确采购意向;

其二,API驱动的规模化收入,2025年其API销售收入达38亿美元,远超OpenAI同期水平,“模型即服务”的模式,大幅提升了客户粘性与迁移成本;

其三,精益化运营,通过外包非核心业务,将资源集中在研发与客户服务上,有效控制成本——其现金消耗率远低于OpenAI,预计2027年可实现正向现金流,毛利率将逐步提升至77%。

“工业蒸馏”大戏,玩火者的引火烧身

回到这两天闹得沸沸扬扬的“蒸馏(distillation)攻击”指责,Anthropic彻底玩脱,以至于自己的人设都不稳了。

所谓“蒸馏”,通俗来讲就是雇一群“水军”,疯狂向Claude发送各类问题,再将Claude的回答收集起来,用来训练自己的小模型。

这就像一个勤奋却基础薄弱的学生,每天抄优等生的作业,抄得久了居然也能考出90分的成绩。Anthropic在指控中称,DeepSeek等中国公司,正是通过1600万次查询,“白嫖”Claude的核心逻辑能力。

据Anthropic披露,这几家中国公司动用2.4万个虚假账号,伪装成美国家庭用户,发起了1600多万次API调用,核心目的就是窃取Claude的核心技术能力——Anthropic甚至将此事上升到“美国国家安全威胁”的高度。

其报告更是点名道姓:MiniMax发起了1300多万次调用,重点瞄准代码生成能力;Moonshot调用340万次,专注挖掘智能体推理能力;最引人关注的是DeepSeek,仅调用15万次,却被标为“极度危险”——因为它专门诱导Claude输出内部思维链,堪称“花小钱办大事”,手法极为老练。

乍一看,这像是一场正义的知识产权保卫战,但本质上,Anthropic是借着“中国威胁论”的幌子,试图再一次骗过所有人。

Anthropic的CEO达里奥,本就是硅谷AI圈里最积极向华盛顿兜售“中国AI威胁论”的人之一。2023年参议院听证会上,他警告“失控的大模型可能引发生物武器袭击”;2026年初的达沃斯论坛上,他更是放出狠话:“向中国出口芯片,就像向朝鲜出售核武器。”

他一直试图靠这套“意识形态”叙事,为自己搭建一道护城河,换取美国监管层的庇护。可他万万没想到,自己亲手种下的苦果,很快就找上门来。

打开网易新闻 查看精彩图片

今年1月3日,美国军方在委内瑞拉开展了一场机密突袭行动。而在这场行动中,军方通过Palantir公司,直接使用Claude模型处理战场情报、定位目标——这也是商业大模型首次直接参与致命军事行动。

可Anthropic的创立初衷,本就是主打“AI安全”,其服务条款中明确规定,禁止将AI用于暴力、武器开发等场景。此事曝光后,Anthropic的安全主管直接辞职,并公开警告“世界正处于危险之中”,公司高管团队也向Palantir提出严正质询。

这一举动,彻底激怒了五角大楼。美国国防部直接下达最后通牒:既然你宣称自己是美国的“国家安全资产”,那就必须把AI技术彻底交给军队,拆除所有安全锁,废除一切道德底线,让军方拥有绝对控制权。

五角大楼甚至没有给Anthropic谈判的余地,直接放出狠话:要么妥协,要么就将Anthropic列入“供应链风险”名单——上一个被如此制裁的,是华为。

一旦上榜,所有与美国政府有合作的企业,都将被禁止使用Claude,Anthropic相当于被直接切断所有收入来源,迎来商业上的“死亡判决”。

看到这里不难明白,Anthropic日前指控中国公司,根本不是为了维护知识产权,而是达里奥在前往五角大楼谈判前,急于递上的一份“投名状”。他想向华盛顿传递一个信号:你看,中国正在偷我们的核心技术,我们是维护美国AI霸权的关键力量,不能像对待外国企业那样对付我们。

更具讽刺意味的是,他这边喊着“维权”,那边就被网友扒出了“黑历史”:Anthropic刚刚和解了一场金额达15亿美元的诉讼,原因是其盗版700万本书用于模型训练;目前,它还面临另一场30亿美元的诉讼,涉嫌非法下载2万多首歌曲。

群众的眼睛是雪亮的,社区对Anthropic的评价也是负面居多,马斯克更是直接发文嘲讽:Anthropic自己大规模偷窃人类数据,现在居然抱怨别人提取他们的模型输出?“他们怎么敢偷走Anthropic从人类那里偷来的东西?”

而且在AI业内,“蒸馏”模型本就是常态:Meta用阿里千问蒸馏,法国Mistral用DeepSeek蒸馏,行业内本就是互相学习、彼此借鉴的生态,唯有Anthropic,为了自保,故意将这种行业常规操作,拔高到地缘政治的高度。

达里奥以为,把“国家安全”当作武器,就能为自己解围。可他忘了,玩火者最终的结局,很可能就是引火烧身。