打开网易新闻 查看精彩图片

一家AI公司敢对五角大楼说"不",代价是被列入供应链黑名单。但联邦法官Rita Lin的临时禁令,让这场不对等博弈出现了戏剧性反转。

美国国防部把Anthropic列为"供应链风险"(Supply Chain Risk),要求所有政府机构停用其Claude模型。Anthropic的反击是:宪法第一修正案不允许政府用权力惩罚受保护的言论。

这场冲突的核心,是Anthropic拒绝让军方将其AI用于两个场景:完全自主的致命武器系统,以及国内大规模监控。公司宁愿放弃政府合同,也要守住这两条红线。

从商业决策到宪法诉讼

从商业决策到宪法诉讼

时间线拉回到几个月前。Anthropic与国防部的谈判陷入僵局,公司明确划定了使用边界。国防部没有选择终止合作,而是采取了更激进的手段——通过行政程序将Anthropic定性为安全风险。

这种"供应链风险"标签的杀伤力在于连锁反应。一旦贴上,不仅军方,所有联邦机构都必须停用相关技术。对于一家正在拓展企业市场的AI公司,这几乎是商业死刑。

3月初,国防部长Pete Hegseth在社交媒体发文,称"任何与美国军方合作的承包商都不得与Anthropic往来"。这条推文被Anthropic的律师团抓了个正着——它证明了政府意图的惩罚性,而非单纯的安全考量。

庭审中,政府律师试图切割Hegseth的个人言论与官方行为,声称推文"不具备法律效力"。法官Lin的追问直接戳破了这个辩护:"如果他没这个权力,为什么要发?"政府律师的回答是:不知道。

法官的怀疑与政府的逻辑漏洞

法官的怀疑与政府的逻辑漏洞

打开网易新闻 查看精彩图片

周二的听证会上,Lin对政府论据的质疑贯穿始终。她指出一个关键矛盾:如果国防部真担心安全风险,完全可以选择不续约,而非动用"供应链风险"这种非常规武器。

"这看起来像是试图 cripple( cripple )Anthropic,"Lin在庭上直言。她的书面裁决进一步认定,国防部的 designation "可能既违反法律,又属于任意和武断"。

政府方面的论证链条存在明显断裂。他们声称Anthropic的使用限制政策暗示了潜在的破坏倾向,但拿不出任何证据。Lin在裁决书中写道:"战争部(Department of War,国防部的历史称谓)无法从Anthropic坦诚的使用限制中,合理推断出它可能成为破坏者。"

这个措辞值得玩味。Lin刻意使用了"Department of War"这个已废弃60余年的旧称,而非现行的"Department of Defense"。一种解读是:她在暗示政府的做法带有过时的、好战的行政思维。

临时禁令的7天窗口

临时禁令的7天窗口

Lin批准了临时禁令(Temporary Restraining Order),但只给了一周有效期。这个设计很精巧——足够让Anthropic喘息,又迫使双方尽快进入实质审理。

对Anthropic而言,这7天是关键的公关和运营窗口。公司需要向企业客户证明其服务不会突然中断,同时争取舆论支持。对政府而言,这是调整策略的最后机会——要么在法庭上拿出更有力的证据,要么寻找台阶下。

案件的特殊性在于,它把AI伦理争议拖进了宪法第一修正案的框架。Anthropic的论点很锋利:使用限制政策是一种企业言论(corporate speech),政府因这种言论而惩罚公司,构成违宪。

这个法律路径的选择本身就有讲究。如果单纯挑战行政程序的合法性,Anthropic可能陷入技术细节泥潭。但第一修正案提供了更高的道德高地——公司不是在为一纸合同讨价还价,而是在捍卫言论自由的基本原则。

打开网易新闻 查看精彩图片

庭审记录显示,Lin多次追问政府律师:具体的国家安全关切是什么?与Anthropic的使用限制有何直接关联?政府未能给出令人信服的回答。

行业涟漪与未解的问题

行业涟漪与未解的问题

这起诉讼的走向,将深刻影响AI公司与政府的关系模式。目前,OpenAI、Google DeepMind等头部厂商都与国防部有不同程度的合作,但伦理边界各不相同。

Anthropic的"硬骨头"策略能否复制,取决于两个变量:一是本案的终局裁决,二是公司的财务承受力。临时禁令期间,Anthropic的云端算力成本、企业客户流失风险都在累积。

更深层的张力在于AI行业的双重身份。这些公司既需要政府合同带来的收入和合法性背书,又需要向公众和员工展示技术向善的姿态。当这两个目标冲突时,大多数选择了妥协或模糊处理。

Anthropic的选择是罕见的公开对抗。它的底气部分来自资本结构——截至2024年初,公司累计融资约77亿美元,其中Google承诺投资20亿美元,Amazon承诺投资40亿美元。这种资金储备让它有底气放弃短期政府收入。

但财务安全不等于法律安全。如果最终败诉,"供应链风险"标签可能重新激活,甚至成为判例,影响其他AI公司的政策空间。

Lin的7天禁令是一个信号,但不是终局。它表明法院对政府的程序正当性持怀疑态度,但并未在实体问题上站队。Anthropic需要证明的不仅是"政府做错了",而是"政府无权这样做"。

案件下一步将进入初步禁令(Preliminary Injunction)听证,证据开示和专家证人环节将真正展开。届时,我们可能会看到更多关于Claude模型技术细节、国防部风险评估流程的公开披露。

一个悬而未决的问题是:如果AI公司可以因伦理政策而被政府惩罚,那么"企业社会责任"究竟是自愿选择,还是一种被默许的表演?当Antropic的律师在法庭上引用第一修正案时,他们实际上是在为整个行业的政策空间而战。

7天后,临时禁令失效。那时政府是选择撤诉、调整策略,还是拿出新的证据?这个答案,可能比任何法庭陈述都更能说明问题。