打开网易新闻 查看精彩图片

2亿美元合同,7个月后被打成"国家安全威胁",再过2个月,联邦法官用43页判决书把整件事定性为违宪。Anthropic与五角大楼的这场官司,可能是AI行业近年来最荒诞的政企博弈。

更关键的是:如果你用Claude写代码、跑分析,或者调用任何AI公司的API,这场官司的结局直接决定了——你依赖的安全护栏,到底归AI公司管,还是政府一句话就能拆掉。

从"首个入驻"到"首个被封"

从"首个入驻"到"首个被封"

2025年7月,Anthropic签下那份2亿美元的国防部合同,成为第一家把大模型部署进五角大楼机密网络的AI公司。对双方都是里程碑:Anthropic拿到政府背书,军方获得最先进的AI能力。

两个月后,裂痕出现。国防部想把Claude接入GenAI.mil军事AI平台,向Anthropic提出两项要求:删除"禁止完全自主致命武器"条款,删除"禁止国内大规模监控"条款。

Anthropic几乎全盘接受了其他条件——机密网络运行、军事情报分析、后勤优化,全部放行。但这两条红线,没谈拢。

五角大楼的回应堪称史无前例。2026年2月,国防部长Pete Hegseth把Anthropic列为"供应链风险"。CNN报道指出,这个标签此前从未公开贴给过美国公司,专留给华为、卡巴斯基这类"敌对国家实体"。

联邦机构被令停用Claude。亚马逊、微软、Palantir等防务承包商被迫书面承诺:军事项目里不用Claude。

打开网易新闻 查看精彩图片

一家美国AI公司,因为拒绝放宽杀人机器人和全民监控的限制,被自家政府打成了"潜在敌特"。

法官翻出了什么

法官翻出了什么

3月24日,旧金山联邦地区法院法官Rita Lin的听证会上,政府律师被追问得节节败退。Lin当场质疑:"这个门槛是不是太低了?"

两天后,初步禁令下达。Lin的判决书里有段话被法律界反复引用:"现行法律绝不支持这种奥威尔式概念——一家美国公司只因与政府意见相左,就被贴上潜在对手和破坏者的标签。"

更致命的是Lin从五角大楼内部文件里挖出的东西。政府动手的时间点,正是Anthropic公开表达担忧之后。国防部自己的文档把这叫作"通过媒体以敌对方式行事"。

Lin的判决很直接:"因公开质疑政府合同条款而惩罚Anthropic,是典型的、非法的第一修正案报复。"

为什么这事和你有关

为什么这事和你有关

这场官司的核心不是2亿美元。是AI安全护栏的控制权归属。

打开网易新闻 查看精彩图片

如果五角大楼赢了,意味着政府可以通过"供应链风险"这类行政标签,强制任何AI公司修改使用政策。你今天用的Claude、GPT、Gemini的安全限制,明天可能因为某个部门的合同谈判,就被一纸命令砍掉。

Anthropic的律师在庭上举了个例子:假设政府要求删除"不得用于网络攻击"的限制,公司拒绝,然后被打成"供应链风险"——这套逻辑一旦成立,所有AI公司的安全承诺都成了可谈判的筹码。

Lin的禁令目前只是临时性的,最终判决尚未落地。但43页判决书已经划了一条线:政府不能用国家安全标签报复言论,不能把合同谈判变成"顺我者昌"的单向命令。

对开发者来说,这相当于确认了一件事——你调用的API背后,那套"不能做什么"的规则,至少目前还不是政府说改就能改的。

案子还没完。禁令之后,五角大楼可以选择上诉,也可以重新走程序尝试合法地限制Anthropic。但Lin的判决已经让"供应链风险"这个武器的使用成本大幅上升。

一个值得注意的细节:Anthropic在诉讼期间始终没有撤回那两条限制。即使被贴上敌对标签、即使合同悬停、即使客户被迫断供,他们也没松口。

这在AI行业并不常见。更多公司的做法是谈判、妥协、悄悄改条款。Anthropic选了另一条路——把官司打到底,然后赢了第一回合。

现在的问题是:如果最终判决维持禁令,其他AI公司会不会跟进,把安全政策变成不可谈判的底线?还是说,这只是Anthropic的孤例,因为2亿美元合同给了他们打官司的底气?