一家AI公司同时被两个法院用完全相反的逻辑审判,在美国司法史上都算少见。Anthropic(人工智能初创公司,由OpenAI前研究副总裁Dario和Daniela Amodei兄妹创立)现在正处在这个荒诞的夹缝里——华盛顿特区上诉法院周三裁定,它"未能满足"取消"供应链风险"认定的严格要求;而一个月前,旧金山地方法官刚认定国防部"很可能恶意行事",下令撤销这一标签。
更麻烦的是,这两个判决针对的是两部不同的法律。Anthropic自己说,它是美国第一家同时被这两部法律点名的公司——而这两部法律,原本设计用来惩罚"对国家安全构成风险的外国企业"。
一家旧金山公司,怎么就成了五角大楼的"眼中钉"?
时间线得倒回几个月前。Anthropic的核心产品Claude(人工智能聊天机器人)被国防部广泛使用,从日常办公到作战规划都有渗透。但公司创始人Dario Amodei一直对军事用途设限,公开主张AI不应直接参与致命决策。
这种"又当供应商又立规矩"的姿态,在特朗普政府眼里成了刺。旧金山法官William Alsup(威廉·阿尔苏普,联邦地区法院资深法官)在4月初的判决书里写得很直白:国防部的打压"很可能源于挫败感"——既恼Anthropic给技术使用加限制,又恨它把这些矛盾公开化。
Alsup下令取消"供应链风险"标签后,特朗普政府照办了。五角大楼和联邦各机构一度恢复了Claude的访问权限。但这份判决只解决了一部法律的问题,另一部法律的官司在华盛顿特区打。
周三,特区巡回上诉法院的三人法官小组给出了截然相反的结论。他们在意见书里用了个罕见的表述:这是"前所未有的案件"。
两个法院的底层逻辑冲突
旧金山的Alsup看重程序正义。他发现国防部的认定流程漏洞百出,Anthropic甚至没拿到完整的指控材料,属于"先开枪后画靶"。
华盛顿的法官小组则把天平压向军事需求。他们的原话是:批准暂缓令将"迫使美军在重大持续军事冲突期间,延长与不受欢迎的关键AI供应商的交易"。
翻译一下:法院不想因为一家公司的财务损失,去"实质性干预军事行动",更不想"轻易推翻"军方对国家安全的专业判断。
这里藏着美国行政法的经典张力——司法审查该不该给国家安全让路?两个法院选了不同答案。旧金山说,程序瑕疵不能忍;华盛顿说,战时别添乱。
Anthropic的处境因此变得微妙:它现在同时"是"又"不是"供应链风险企业,取决于你用哪部法律、哪个法院的管辖。
Claude在伊朗战场上的影子
这场法律战的时间点很尴尬。判决出炉时,五角大楼正把AI大规模投入对伊朗的军事行动。特朗普政府没有公开Claude的具体用途,但Anthropic在法庭文件里暗示,公司担心自己的技术被用于"不符合我们价值观"的场景。
代理司法部长Todd Blanche(托德·布兰奇,特朗普任命的司法部临时负责人)在X平台上发了份声明,语气像战报:"今天特区法院的暂缓令是军事战备的重大胜利。"
他补了一句狠话:"军事权威和作战控制权属于总司令和战争部,不属于一家科技公司。"
这话把Anthropic架到了对立面。但公司发言人Danielle Cohen的回应很克制,只感谢法院"认识到这些问题需要尽快解决",并相信"法院最终会认定这些供应链认定是非法的"。
两边的措辞对比很有意思:政府谈"胜利"和"控制权",公司谈"法律"和"程序"。
两部法律,两套游戏规则
让Anthropic头疼的,是美国供应链安全体系的双轨制。
第一部是《2019财年国防授权法》第889条,俗称"华为禁令"的扩展版,禁止联邦机构采购特定企业的设备和服务。第二部是《2021财年国防授权法》第1260H条,授权国防部直接认定"供应链风险实体",限制范围更广。
旧金山法院处理的是第889条,认定国防部的程序违法;华盛顿法院处理的是第1260H条,强调军事需求的优先级。
Anthropic的律师团队显然没料到会被两头堵。公司最初以为,只要在一个法院打赢,就能形成先例压力。但两个法院各管一摊,判决互相不约束,反而制造了更混乱的局面。
一个细节:特区上诉法院用的是"暂缓令"(stay)标准,不是最终判决。意思是,在完整审理之前,先维持现状——让Anthropic继续背着"供应链风险"的标签。这解释了为什么措辞相对克制,但影响却很实际:联邦机构的采购系统里,Claude的权限状态又变成了灰色。
对一家年收入约20亿美元、严重依赖政府和企业客户的AI公司来说,这种不确定性本身就是惩罚。
AI公司与政府的权力边界之争
这个案子被法律界视为测试行政权力的风向标。核心问题是:当科技公司以"伦理"或"安全"为由限制产品用途时,政府能用什么手段反制?
Anthropic的辩护策略很聪明。它没有直接挑战军方的采购权,而是咬死程序瑕疵——国防部没给充分通知、没提供具体证据、认定标准模糊。这种打法在旧金山奏效了,在华盛顿碰壁。
但更深层的冲突藏不住。Amodei兄妹创立Anthropic时,主打的就是"AI安全"差异化,Claude从设计之初就嵌入了一套使用限制。这套逻辑和OpenAI的"超级对齐"类似,但执行得更硬:公司曾公开拒绝过某些政府的定制需求。
特朗普政府的反击同样直白。Blanche的声明把话挑明了:技术整合进敏感系统后,"军事权威"不容谈判。这等于宣告,AI公司的产品一旦进入国防供应链,使用权就不再由供应商单方面定义。
两边的底线都很清楚。Anthropic怕的是技术被用于它无法控制的场景,最终反噬品牌和安全承诺;政府怕的是关键战时供应商突然"掉链子",或者借伦理之名行拖延之实。
行业里的观望与分化
其他AI公司都在盯着这个案子。OpenAI和Google DeepMind与军方的合作相对顺畅,没有公开冲突;Cohere和AI21 Labs等中小玩家则更倾向于回避敏感合同。
Anthropic的困境在于,它既想保住政府这块大蛋糕,又不想放弃"负责任AI"的公众形象。这种骑墙策略在拜登时代或许可行,特朗普政府的容忍度明显更低。
一个值得注意的数据点:根据联邦采购记录,2024财年国防部在生成式AI上的支出超过3.5亿美元,Anthropic的份额约占四分之一。这不是能轻易放弃的收入。
但公司也在做对冲。法庭文件显示,Anthropic正在加速拓展商业客户和海外市场,降低对联邦收入的依赖。这种"去风险"操作,反过来又被政府视为"不忠诚"的证据——Blanche的声明里"不受欢迎的供应商"一词,暗示了这种情绪。
现在最尴尬的是 Pentagon 的采购官们。他们得同时执行两个互相矛盾的法院判决,在技术系统里给Claude开权限又关权限,已经折腾了三轮。
最终怎么收场?两个法院的上诉程序会继续,但时间线拖得越长,Anthropic的商业损失越大。更可能的结局是庭外和解——政府给个体面的台阶,公司悄悄放宽某些使用限制。
热门跟贴