一家AI公司拒绝把技术卖给政府做大规模监控,代价是被贴上"供应链风险"标签——这个通常留给中国企业的红码,现在钉在了一家美国公司头上。更魔幻的是,从禁令发布到法院叫停,只隔了72小时。
这不是商业纠纷,是一场关于"不听话就要付出代价"的测试。
合同谈判破裂:政府要的是"无限使用权"
事情始于Anthropic与特朗普政府的合同谈判。政府方面提出的条款,要求允许将Claude等技术用于两个特定场景:大规模监控,以及自主武器开发。
Anthropic拒绝了。这家公司由OpenAI前研究副总裁Dario Amodei和Daniela Amodei兄妹创立,核心卖点就是"AI安全"——他们甚至把公司结构做成了一种叫"长期利益信托"(Long-term Benefit Trust)的奇怪设计,董事会里有一群人专门负责确保AI不被滥用。
让政府用Claude搞监控和杀手机器人?这跟他们写在官网上的价值观直接冲突。
谈判破裂后,报复来得很快。总统下令联邦机构停用Claude及Anthropic全部服务;国防部正式将其列为"供应链风险";国防部长Pete Hegseth公开警告:想跟政府做生意的企业,必须跟Anthropic切断联系。
三记重拳,把一家美国AI公司打进了"敌对实体"名单。
法官的判决:这不是风险管理,是报复
Anthropic选择起诉,理由是违法、侵犯言论自由、剥夺正当程序。他们申请初步禁令,要求在诉讼期间暂停禁令执行。
国防部的辩护词很标准:让Anthropic继续接触"作战基础设施"会给供应链带来"不可接受的风险"。
但北加州联邦地区法院法官Rita F. Lin没买账。她在裁决书中写道,政府采取的措施"明显是为了惩罚Anthropic"。
更尖锐的还在后面。Lin指出,Anthropic似乎是因为在媒体上批评政府而遭到报复。"因公开质疑政府合同条款而惩罚Anthropic,是典型的非法第一修正案报复行为。"
她对"供应链风险"的定性同样不留情面:与法律相悖,武断且反复无常。政府辩称Anthropic表现出"颠覆倾向"的证据,仅仅是"质疑"其技术的使用方式。
「没有任何现行法律支持这种奥威尔式的观念:一家美国公司仅仅因为表达与政府不同的意见,就可能被贴上潜在对手和破坏者的标签。」Lin在判决书中写道。
换句话说,政府想把"不听话"重新定义为"不安全"。
72小时反转:一场关于AI控制权的预演
法院批准初步禁令的速度,反映出案件本身的清晰程度。Lin明确表示,Anthropic"在第一修正案主张上显示出胜诉可能性"——这是法律术语,意思是"你们大概率能赢"。
Anthropic对《纽约时报》的回应很克制:"感谢法院迅速行动",现在专注于"与政府建设性合作,确保所有美国人从安全可靠的AI中受益"。
诉讼仍在进行,最终判决尚未出炉。但初步禁令已经说明问题:在现行法律框架下,政府不能仅凭"你不配合"就把一家美国公司塞进敌对名单。
这场冲突的深层结构值得拆解。政府想要的是"无限使用权"——技术到手后怎么用,我说了算。Anthropic想要的是"用途限制"——卖给你可以,但监控和武器不行。
这其实是AI时代的新问题:当技术能力越来越强,卖方是否有权限制买方用途?传统软件许可协议里常见这类条款("禁止用于核设施"之类),但当买家是联邦政府、且手握"供应链风险"这枚核弹时,谈判天平完全倾斜。
更微妙的信号来自Hegseth的公开威胁。他要求其他企业"切断联系",实质是在构建一个排斥Anthropic的产业联盟。这种压力测试如果成功,会成为模板:不配合的AI公司,可以被系统性孤立。
法官的介入,暂时打断了这个反馈循环。
对科技行业的观察者来说,此案的时间点很微妙。2023年以来,AI安全话题从学术圈进入政策核心,但"安全"的定义权争夺从未停止。Anthropic的立场是技术层面的——某些应用场景风险过高;政府的回应却是政治层面的——你不配合,就是风险本身。
Lin的判决把这两个层面拆开了。技术风险评估可以有,但不能成为打压异见的工具。"供应链风险"这个标签,从此有了司法审查的先例。
不过案件远未结束。初步禁令只是暂停,不是终局。政府可以选择修改合同条款、调整施压策略,或者在诉讼中拿出更有说服力的安全证据。Anthropic则需要证明,它的"不配合"确实是原则问题,而非商业博弈。
一个细节耐人寻味:Anthropic在回应中特意提到"所有美国人"。这个词的选择不是偶然——它把争论框架从"企业vs政府"转向了"公共利益",暗示自己的立场代表更广泛的受众。
这是产品经理念过的话术课,还是真的相信?
热门跟贴