一家估值180亿美元的AI公司,用一纸诉状把美国国防部告上了法庭。更魔幻的是,它赢了第一局。
3月27日,加州北区联邦法院法官Rita Lin裁定,暂时禁止美国政府对Anthropic采取惩罚性措施。这场官司的核心矛盾,是Anthropic拒绝让军方将其Claude AI模型用于自主致命武器或国内大规模监控。
政府给Anthropic扣了顶"供应链风险"的帽子,试图切断其与所有联邦机构的合作。法官的回应很直接:这"看起来像是试图搞垮Anthropic"。
从"五角大楼宠儿"到"国家安全威胁",只用了几个月
时间线拉回到2024年。Anthropic当时还是国防部的座上宾,Claude模型被用于非战斗场景的分析任务。转折点出现在公司更新用户协议——明确禁止将其技术用于"造成大规模伤害"的军事用途。
这个改动触怒了特朗普政府。今年2月,国防部长Pete Hegseth在社交媒体X上放话:任何与美国军方有业务往来的承包商,都不得与Anthropic合作。这条帖子没有走任何正式行政程序,却像一颗炸弹砸向这家旧金山初创公司。
Anthropic的反击来得很快。3月初,公司向法院提交诉讼,指控政府违反宪法第一修正案——用国家权力惩罚一家企业的合法言论。
诉状里有个细节值得玩味:Anthropic并非完全拒绝与军方合作,而是划定了红线。公司CEO Dario Amodei多次公开表态,愿意讨论"防御性网络安全"等特定用例,但自主武器系统绝对免谈。
这种"挑活干"的态度,在硅谷AI公司中并不多见。OpenAI和Google此前都曾调整政策,为国防合同敞开大门。Anthropic的选择,让它成了异类。
法官的质疑:你们到底在怕什么?
3月25日的听证会上,Rita Lin法官的提问暴露了政府论证的薄弱。
她首先追问"供应链风险"认定的法律依据。根据《国防生产法》,这类 designation 通常针对外国实体或存在实际安全隐患的供应商。Anthropic是美国本土公司,核心团队出自OpenAI,背景清白得可以当教科书案例。
政府律师的回应是:Hegseth的社交媒体发言"不具有法律效力",因此不构成实际伤害。Lin当场反问:那国防部长为什么要发一条自己没有权限执行的内容?律师沉默,答不上来。
更尴尬的还在后面。Lin指出,如果国防部真担心Anthropic的技术风险,完全可以选择不续约、不合作,而非动用"供应链风险"这种核武器级别的行政工具。"这不像是在管理风险,"她在庭上直言,"像是在惩罚不听话的承包商"。
判决书里有个法律术语被反复提及:"arbitrary and capricious"——武断且反复无常。这是美国行政法中对政府行为最严厉的批评之一。Lin法官认定,五角大楼对Anthropic的处置"很可能既违法又武断"。
临时禁令的有效期为7天。这7天里,政府不能阻止其他机构使用Anthropic的技术,也不能向合作伙伴施压切断与该公司的联系。
第一修正案 vs 国家安全:一场不对称的战争
Anthropic的诉讼策略很聪明。它没有纠缠于AI伦理的技术细节,而是把战场搬到了宪法权利的高地。
诉状核心论点:公司制定使用限制条款,属于受保护的"言论表达"。政府以"供应链风险"进行报复,实质是压制这种表达。用Anthropic律师在庭上的话说,"宪法不允许政府挥舞其巨大权力,惩罚一家公司的受保护言论"。
这个框架把政府架在了火上。要反驳Anthropic,国防部就得证明"供应链风险"认定有扎实的国家安全依据,而非针对特定立场的打击报复。但从听证表现来看,政府律师连Hegseth发帖的动机都解释不清。
第一修正案诉讼有个特点:一旦法院认定"言论内容"是处罚动机之一,政府就背负极重的举证责任。Lin法官的初步判断,已经暗示她看到了足够的"内容歧视"迹象。
不过Anthropic的胜利仍是阶段性的。7天禁令到期后,双方将进入实质审理。政府有两个选择:要么拿出更有力的国家安全证据,要么撤销"供应链风险"认定、换个更隐蔽的方式施压。
考虑到特朗普政府的一贯作风,后一种可能性不低。
硅谷的"道德溢价"值多少钱
这场官司的涟漪效应正在扩散。
Anthropic不是第一个对军方说"不"的AI公司,但它是第一个为此付出真金白银代价、还选择硬刚到底的。2024年,公司拒绝了价值数千万美元的潜在国防合同。同期,竞争对手Palantir的AI军事业务营收增长了47%。
这种"道德洁癖"在商业上是否可持续?投资者的态度很关键。Anthropic的主要金主包括Google、Amazon和Spark Capital,三者合计持股超过60%。这些机构对"国防科技"的态度截然不同——Amazon有22亿美元的五角大楼云计算合同,Google则在2018年员工抗议后退出了Maven项目。
一个有趣的对比:OpenAI在2024年初删除了"禁止军事用途"的条款,随后拿到了美国空军的生成式AI合同。公司发言人当时的解释是,"我们的政策从未禁止所有军事用途,只是禁止'造成伤害'的用途"。
这种语义游戏,Anthropic不屑于玩。它的用户协议写得明明白白:禁止"开发或使用武器"、禁止"监控或追踪个人以剥夺其权利"。
代价是显性的。除了政府合同流失,Anthropic还面临着合作伙伴的离心压力。据The Information报道,至少两家与军方有业务往来的云服务供应商,曾收到国防部的"非正式询问",了解其与Anthropic的合作深度。
这种"软性胁迫"正是Anthropic诉讼要阻止的。Lin法官的禁令,暂时为公司争取到了喘息空间。
7天之后,会发生什么
临时禁令的截止日期是4月3日。届时,要么双方达成某种和解,要么官司进入漫长的证据开示阶段。
对Anthropic来说,最理想的结果是政府主动撤销"供应链风险"认定,换取公司撤诉。但这意味着特朗普政府公开认错,可能性微乎其微。
更现实的剧本是:政府律师在接下来7天里紧急拼凑国家安全论证,试图在实质审理中挽回局面。或者,Hegseth再发一条帖子,用更模糊的语言重申立场——既不给法院留把柄,又保持对市场的威慑。
无论哪种走向,这起案件都已经创造了历史。这是美国AI公司首次以第一修正案为由,成功挑战国防部的行政打压。判决书中对"武断且反复无常"的认定,可能成为后续类似诉讼的模板。
硅谷的观察者们正在计数:还有多少AI公司,愿意为了原则放弃国防部的支票?
热门跟贴