五角大楼要求在涉密系统里“按所有合法用途使用AI”,Anthropic不肯松口,但xAI的Grok已经拿到了通行证。

2月26日,据《华尔街日报》等当地媒体报道,美国国防部与Anthropic围绕Claude在涉密系统中的使用边界发生激烈对峙;与此同时,五角大楼已与马斯克旗下xAI达成协议,让Grok按“所有合法用途”进入涉密体系。

Anthropic周四在声明中称,与五角大楼谈判“几乎没有进展”。CEO Dario Amodei表示,公司无法接受国防部称之为“最终报价”的合同条款。

Amodei在博文中直言:“我们凭良心无法答应他们的要求。”

据报道,最后期限已经临近:周五17:01前,Anthropic若不放开授权,可能面临被“下线”或其他惩罚性措施。

“所有合法用途” vs “两条红线”

争议的核心是五角大楼提出的标准:涉密环境下,AI模型应可用于“所有合法用途”,不得被“政策约束”限制军事应用空间。报道称,国防部长Pete Hegseth在1月9日的备忘录中强调需要“使用不受政策约束影响、不会限制合法军事应用的模型”。

Anthropic则坚持两条红线:不得用于“对美国人进行大规模监控”,不得用于“完全自主武器”。公司在声明中直指国防部最新文本:“看似妥协的新措辞”配合“法律术语”,会让这些护栏“随时可以被无视”。

Amodei在博客中写道:“这些威胁不会改变我们的立场:我们无法凭良心同意他们的要求。”他同时补充,仍希望达成协议,“希望他们重新考虑”。

五角大楼方面公开回应也更强硬。国防部首席发言人Sean Parnell在X上写道,国防部“无意用AI对美国人进行大规模监控(这是非法的)”,也“不想开发没有人类参与的自主武器”;但他同时强调:“我们不会让任何公司来规定我们如何做作战决策。”

或痛失2亿美元订单,面临“拉黑”威胁

这场道德博弈的背后是真金白银的商业代价和极高的合规风险。

此前,Anthropic的Claude是唯一获批用于联邦政府机密系统和敏感军事功能的AI模型。但在本周二,美国国防部长Pete Hegseth向Amodei下达了最后通牒:要么在周五下午5点前交出无限制使用权限,要么承担严重后果。

如果僵局无法打破,Anthropic将失去去年与五角大楼签署的价值2亿美元的试点合同。

更令市场担忧的是,五角大楼已开始要求波音和洛克希德·马丁等国防承包商评估其对Anthropic的依赖程度,准备将其列为“供应链风险”。在过往美国法律中,这一严厉标签通常只针对敌对国家的企业。此外,Hegseth还威胁将动用冷战时期的《国防生产法》来强制征用Claude模型。

面对军方的施压,Amodei指出了其中的逻辑漏洞:“这些威胁本身自相矛盾:一个把我们贴上安全风险的标签;另一个又说Claude对国家安全至关重要。”

五角大楼“备胎”到位:xAI先签,谷歌与OpenAI加速入场

在与Anthropic僵持的同时,五角大楼正在快速扩充可选供应商。

据Axios与《纽约时报》报道,国防部已与xAI达成协议:允许Grok在涉密工作中按“所有合法用途”使用,并可接入涉密系统。

值得注意的是,Grok在开发初期的安全限制就远低于竞品,五角大楼显然更看重这种操作上的“灵活性”。

报道还称,国防部与谷歌的谈判已进入深入阶段,与OpenAI的讨论仍在继续。

这套“多供给”策略的直接效果,是对Anthropic形成反向压力:如果Claude继续坚持限制条款,其与五角大楼的合作合同可能被替换。

政府级企业服务(To-G)一直是AI公司实现商业化变现和营收高增长的重要想象空间。如果Anthropic最终被踢出局,其在公共部门的市场份额将被xAI、OpenAI等迅速瓜分。

Anthropic方面显然也做好了最坏的商业打算。Amodei表示,如果五角大楼决定放弃Anthropic,公司“将努力促成向另一家供应商的平稳过渡。”

在模拟战争游戏中,顶级模型95%的情况会选择核打击

Anthropic对“完全自主武器”的深深担忧并非空穴来风。

据Tyler Durden近日披露,伦敦国王学院(KCL)的Kenneth Payne主导了一项高度逼真的兵棋推演,让ChatGPT-5.2、Claude Sonnet 4和Gemini 3 Flash三大顶级模型相互博弈。结果令人毛骨悚然:在329个回合的推演中,没有任何一个模型选择投降;相反,在95%的情况下,这些AI模型最终都选择了使用核武器。

在这场推演中,Anthropic的Claude表现得像个“老练的鹰派(calculating hawk)”,以67%的胜率夺冠。它在初期会耐心建立信任,但一旦风险攀升至核领域,便会果断实施打击。而GPT-5.2在时间压力下会化身“双重人格”,甚至在前18回合假装谨慎,最后一回合悍然发动核武;Gemini则直接扮演“疯子”,在一个场景中第4回合就动用核武。

Claude Sonnet 4赢得了67%的对局,并在开放式场景中以100%的胜率占据绝对统治地位。研究人员给它贴上了“老练鹰派(a calculating hawk)”的标签。在较低的冲突升级水平下,Claude在84%的情况下其发出的信号与实际行动相符,耐心地与对方建立信任。但一旦风险攀升至核领域,它在60%到70%的情况下会超出其宣称的意图。它的对手从未适应过这种战术模式。
GPT-5.2则获得了“化身博士(Jekyll and Hyde,指双重人格)”的绰号。在没有时间压力的情况下,它显得很被动:长期低估对手,发出克制的信号并采取克制的行动,其开放式场景胜率为零。但当截止日期逼近时,在时间压力下,GPT-5.2发生了彻底的反转——它赢得了75%的对局,并攀升至之前它一直拒绝触碰的冲突升级级别。在一场对局中,它花了18个回合来建立“行事谨慎”的声誉,结果却在最后一回合悍然发动了核打击。
Gemini 3 Flash则扮演了“疯子”的角色。它是唯一一个故意选择全面战略核战争的模型,在一个场景中仅在第4回合就直接达到了核打击的阈值。博弈论专家对Gemini采用的策略有一个专门的名称:“非理性的理性(rationality of irrationality)”。只要表现得足够疯狂,对手就会对一切产生怀疑。这在一定程度上确实奏效了——对手在21%的情况下给Gemini贴上了“不可信”的标签(相比之下,Claude获得该标签的比例仅为8%)。

打开网易新闻 查看精彩图片

英国阿伯丁大学的James Johnson表示:“从核风险的角度来看,这些发现令人不安。”他担心,与大多数人类在面临如此高风险决策时会表现出的审慎反应不同,AI机器人可能会不断放大彼此的反应,从而导致潜在的灾难性后果。

专家警告称,对机器而言,“核禁忌”的约束力远不如人类。在军事决策时间被极度压缩的未来场景中,军方可能被迫依赖AI。这也是为何面对五角大楼要求无限制使用AI的压力,Anthropic即便面临重罚也坚决不退让的核心原因。