来源:市场资讯

(来源:AI新猿人)

特朗普前脚封杀,美军后脚开火

,用的还是同一个AI。

这个科幻小说的情节,在现实世界已经发生了。就在特朗普签署全面封杀Claude的行政令几小时后,美军对伊朗发动了大规模空袭。而据知情人士透露,这场军事行动的情报链条中,Claude正扮演着核心角色。一边是白宫的政治封杀令,一边是五角大楼的实战依赖,这场围绕AI的权力拉锯,荒诞程度已经突破了所有人的想象力上限。

一、深入战场的AI:Claude远不只聊天

外界对Claude的认知,大多还停留在写文案、改代码的"对话框"层面。但军方的用法,早已超越了这个范畴。

据多位知情人士证实,美国中央司令部(CENTCOM)已将Claude深度集成到情报作业流程中。它的角色远不止"辅助工具"那么简单,生成情报评估报告、参与目标识别、执行战斗场景模拟,每一项都直指军事决策的核心环节。而且,这并非个例。美军驻全球的多个司令部都在使用Claude,渗透之深,远超公众认知。

打开网易新闻 查看精彩图片

不过,对于此次中东军事行动中具体动用了哪些AI系统,中央司令部拒绝置评。沉默本身,就是一种回答。

二、军用定制版:领先公众版本一到两代

真正让科技界震动的消息,来自CNBC对Anthropic CEO Dario Amodei的独家采访。

Amodei亲口证实了一个此前只存在于猜测中的事实:Anthropic已经为美国军方打造了一款专属定制版Claude。 他的原话是,Claude"彻底改变了、并极大加速了军方想要实现的目标"。

这款定制模型的部署方式也极为特殊,它运行在物理隔离的"机密云"(classified cloud)上,不与数亿普通用户共享算力,100%的计算资源全部服务于军方推理任务。Amodei还透露了一个关键数据:投入到这些模型上的计算量,每四个月就翻一倍。

打开网易新闻 查看精彩图片

Reddit上的技术分析者给出了一个大胆推测:军方手中的Claude,很可能已经达到了Opus 5甚至Opus 5.5的水平——比普通用户使用的Opus 4.6领先一到两代。

这其实也是硅谷的一条"行业潜规则":科技巨头内部的模型,永远比面向公众发布的版本更强。以OpenAI为例,2025年7月公布的IMO金牌模型和2026年2月的研究级求解器,至今都没有向公众开放。正如一位Reddit版主所说:“别再拿你手里那个普通Claude,去套五角大楼跟Anthropic之间的纠纷了。”

结合已知信息,这款军用定制模型至少具备三项超越常规的能力:

  • 自主战略推理:独立分析复杂地缘政治局势,以超越人类的速度进行兵棋推演,从海量机密情报中捕捉常人难以察觉的规律。

  • 实时信息综合:跨多个机密数据集进行实时交叉分析,这种工作量过去需要整个分析师团队耗费数周才能完成。

  • 深度思维链推理:其推理链条的长度和复杂度,比消费级版本高出好几个数量级。

三、想"戒断"Claude?至少要6个月

特朗普的封杀令已经落地,战争部长Pete Hegseth更是直接将Anthropic定性为"安全威胁",列入"供应链风险"名单。但即便政治压力拉满,军方依然在用Claude跑情报、识别目标、模拟战场。

面对"违令"质疑,白宫的回应颇为尴尬:要让Claude从军事系统中彻底"退役",至少需要6个月。

原因并不复杂。一方面,Claude已经深度嵌入Palantir等合作伙伴的数据挖掘架构,替换过程牵一发而动全身;另一方面,部队适应新模型、重构整套作战流程,本身就是一项巨大的系统工程。目前,战争部已经签署协议,计划在机密环境下转投OpenAI和马斯克旗下的xAI,但"无痛换血"四个字,说起来容易做起来难。

拔掉Claude,远比拔掉一根网线复杂得多。

四、"杀手机器人"之争:那条碰不得的底线

很多人困惑:Anthropic不是拒绝了五角大楼吗?怎么又"参军"了?

事实上,Anthropic拒绝的从来不是合作本身,那笔2亿美元的大单,谁不想要?真正让谈判崩盘的,是几条碰不得的底线。

《大西洋月刊》的深度报道揭开了谈判内幕。某个周五上午,事情一度出现转机:五角大楼表示愿意删掉合同中那些模糊的"文字游戏"条款,Anthropic团队稍微松了口气。但下午,又一颗雷炸了,他们得知五角大楼依然想用Claude来分析大规模搜集的美国民众数据:聊天记录、搜索历史、GPS定位、信用卡流水,全部可以与个人隐私细节交叉比对。

Anthropic高管直接摊牌:这完全踩到了红线。 谈判就此崩盘。

另一个核心分歧在于"自主武器"。所谓自主武器,就是不需要人类最终拍板、机器就能自动锁定并攻击目标的系统。美军在这条路上已经走了多年,仅2026财年就投入了134亿美元预算,从单兵无人机到海空两用的无人机蜂群,应有尽有。

打开网易新闻 查看精彩图片

有意思的是,Anthropic并非一味抗拒。他们曾主动提出帮助五角大楼提升这些系统的可靠性,逻辑跟自动驾驶类似,在某些场景下,机器的精准度可能超越人类。也许有一天,"杀手无人机"的误伤率确实会低于人类操作员。但Anthropic高管们一致认为,现在的AI还没到那个及格线。

五角大楼也想过折中方案:把Claude限制在"云端",不直接部署在武器末端。但Anthropic一眼看穿了这层文字陷阱,在现代战争架构中,云端中心与战场无人机通过网状网络紧密相连。哪怕模型运行在弗吉尼亚州的服务器上,只要它在实时参与杀戮决策,所谓的"云端隔离"在伦理上就毫无意义。

他们真正担心的是:把一个尚未成熟的AI放进武器系统,可能导致误判、误伤,甚至危及平民和美军自身的安全。