美国国防部一边把Anthropic列为"供应链国家安全风险",一边让NSA(国家安全局)用上它锁得最死的AI模型。这不是官僚系统的左右互搏——是AI军备竞赛里,"安全"这个词已经被撕成了两半。

一条合同如何引爆五角大楼内斗

打开网易新闻 查看精彩图片

2025年7月,Anthropic和美国国防部签下2亿美元大单。条款写得清楚:Claude不能用于大规模国内监控,不能碰完全自主武器系统。

这在当时不算激进。硅谷AI公司普遍设置"红线",既防舆论翻车,也防技术被滥用。但这份合同的平静只维持了半年。

2026年1月,国防部长赫格塞斯签发备忘录,要求所有国防部AI合同加入"任何合法用途"条款——翻译一下:Anthropic得把之前的安全限制全删掉。

Anthropic拒绝。2月底,五角大楼反手把它列为"供应链国家安全风险",切断所有军事承包商与它的商业往来。

特朗普随后加码:联邦机构全面停用Anthropic技术,已部署系统有6个月过渡期。

到这里,故事本该结束。一家AI公司因"不配合"被踢出联邦采购名单,符合华盛顿的剧本。

但4月19日Axios的报道捅破了窗户纸:NSA——这个隶属国防部的情报机构——正在大规模使用Anthropic最新、管控最严的模型Mythos Preview。

Mythos:被40把锁封住的"网络武器"

理解这个矛盾的荒诞,得先看清Mythos是什么。

Anthropic对Mythos的管控堪称苛刻。全球仅开放给约40个组织,其中只有12家公开身份。NSA是未公开的获授权者之一。

限制如此严格,核心顾虑是"进攻性网络能力"。Anthropic自己承认,该模型若被滥用,可能大幅强化网络攻击的威力。

这让它成为情报机构的梦中情"模"。NSA是美国信号情报和网络安全的最高指挥机构,隶属美国网络司令部。给它Mythos的访问权限,等于把最锋利的刀递给最懂用刀的人。

但问题来了:这把刀的生产商,正被五角大楼以"国家安全风险"的名义全面封杀。

更微妙的是扩散路径。Axios援引两个信源称,Mythos在NSA内部的使用"相当广泛",且已蔓延至国防部其他部门。英国情报机构的同行则通过AI安全研究所获取访问权限——暗示盟友情报圈也在悄悄接入。

一条地下技术管道已经形成:官方禁令在上,实际操作在下,中间隔着"国家安全"这个词的弹性解释空间。

诉讼与悖论:谁在定义"安全"

2026年3月,Anthropic在旧金山提起诉讼,指控五角大楼的"供应链风险"认定"史无前例且违法",侵犯其言论自由和正当程序权利。

案件仍在审理。但法庭文件暴露了一个更深的撕裂:国防部同时在两个战场主张相反立场——对外宣称使用Anthropic工具构成国家安全威胁,对内却让NSA深度依赖其最强模型。

这不是简单的部门协调失灵。它指向AI治理的一个核心困境:当技术能力超越制度设计时,"安全"的定义权会自然滑向实操者手中。

五角大楼的禁令是制度层面的表态,符合政治正确的方向。但NSA的选择是功能层面的务实,回应的是真实作战需求。两套逻辑并行,互不否定,也互不调和。

Anthropic的精密计算:红线生意怎么做

回看Anthropic的决策轨迹,会发现一条清晰的商业逻辑。

2025年签国防部合同时,它用"限制条款"换取了进入联邦市场的门票。这在当时是差异化策略——当OpenAI和Google竞相放宽军售限制时,Anthropic的"道德人设"反而成了稀缺资产。

但2026年的冲突证明,这套策略有硬边界。当政府要求"完全解锁"时,Anthropic选择了对抗而非妥协。代价是2亿美元合同和联邦市场准入资格,收益是技术品牌的完整性。

更隐蔽的收益是Mythos的稀缺性溢价。40个授权名额的设定,把模型变成了情报界的"俱乐部会员资格"。NSA的偷偷使用,本身就是最强背书——如果连最挑剔的客户都要绕开禁令获取,技术价值无需多言。

这种"限制性分销"在高端B2B市场并不罕见。但Anthropic的特殊之处在于,它的限制理由是"安全",而购买方恰恰是安全能力最强的机构。悖论本身构成了营销闭环。

AI军备竞赛的地下水位

NSA与Mythos的纠葛,揭示了一个被忽视的战场:AI能力的获取正在分层。

公开层面,各国政府高谈阔论监管框架、伦理准则、国际治理。实操层面,情报和军事机构以项目制、离岸化、第三方接口等方式,绕过自己参与制定的规则。

英国AI安全研究所的角色值得玩味。作为 ostensibly(表面上)的监管协调机构,它同时充当Mythos的分发节点。这种"监管-采购"身份的叠加,在各国AI治理架构中越来越常见。

对科技从业者而言,这意味着什么?

第一,"政府客户"的定义正在细化。国防部和NSA可能是同一个预算体系下的两个物种,前者走采购流程,后者走情报预算。产品策略需要区分"可公开的合作"和"不可说的使用"。

第二,技术限制条款的设计需要更精密。Anthropic的"禁止大规模监控"条款在2025年是卖点,2026年成了冲突导火索。如何在合同中嵌入可协商的弹性空间,是to-G(政府)产品的必修课。

第三,稀缺性本身就是护城河。Mythos的40名额限制,客观上制造了情报界的FOMO(错失恐惧)。当技术差距缩小时,访问权限的排他性可能比参数规模更具商业价值。

实用判断:这件事会改变什么

这场闹剧的真正影响,不在于Anthropic能否赢回五角大楼的合同,而在于它示范了一种新的AI军售模式:官方拉黑,私下采购,诉讼拖延,三方各取所需。

对AI公司:红线人设可以卖两次——第一次给公众和早期客户,第二次给愿意突破红线的深度用户。关键是设计好"可否认性"的架构。

对政府机构:预算分类和部门墙是天然的合规防火墙。NSA的操作手册正在被其他国家的同行研究。

对从业者:如果你在做to-G的AI产品,现在该重新审视合同里的"使用限制"条款。写得太死,可能触发赫格塞斯式的反弹;写得太松,又失去品牌溢价。Anthropic的2025-2026轨迹,提供了一个完整的压力测试案例。

最后,关注Mythos的扩散路径。如果更多"未公开"的授权组织被陆续曝光,说明Anthropic正在执行一套精密的 tiered-access(分级访问)策略——而这可能是AI公司在大国博弈中生存的标准姿势。