一家AI公司因为拒绝让自家模型用于自主武器和监控,被美国政府全面封杀。联邦机构禁用、军方供应商断联,创始人还在另一场官司里拿到了禁令。但上诉法院的三名共和党任命法官说:先别急,5月19日再辩。

事件核心:两道禁令,两种命运

打开网易新闻 查看精彩图片

Anthropic目前陷入两场平行的法律战。

第一场在华盛顿特区。公司向哥伦比亚特区巡回上诉法院申请紧急暂停令,要求阻止特朗普政府的拉黑措施。法院昨天拒绝了这个请求,但同意加速审理,5月19日进行口头辩论。

第二场在加州北部。同一家公司在3月获得了地区法院的初步禁令,拜登任命的法官Rita Lin认定政府的拉黑构成对宪法第一修正案权利的报复性侵害。特朗普政府正在向第九巡回上诉法院挑战这一裁决。

同一套事实,两个联邦法院给出了相反方向的临时结论。这本身就是最值得拆解的信号。

正方立场:政府的安全叙事

特朗普政府的行动链条非常清晰。

总统指令要求所有联邦机构停止使用Anthropic技术。国防部长Pete Hegseth将该公司列为"供应链国家安全风险",禁止军事承包商与其开展业务。这套组合拳的杀伤力在于:它不仅切断直接采购,还阻断了国防工业生态的间接合作。

政府的核心法律依据是《国防生产法》第4713条,该条款授权行政部门识别并应对供应链风险。在法庭文件中,政府方的论证逻辑是:AI基础设施具有战略敏感性,供应商的政治可靠性属于合理审查范围。

特区巡回法院的裁决书透露了关键细节。三位法官承认"Anthropic若未获暂停令,可能遭受一定程度的不可弥补损害",但将其定性为"主要是财务性质"。对于公司主张的"因受宪法保护言论而遭报复"这一核心指控,法院认为Anthropic"未能证明其言论在本案审理期间受到压制"。

这里的法律技术值得注意。法院区分了"已经发生的报复"和"持续中的寒蝉效应"——前者可能构成违宪,后者需要更严格的举证标准。Katsas和Rao两位特朗普任命法官,加上第三位共和党任命法官,在这个程序性节点上选择了保守立场:不干预行政部门的临时措施,但加速实质审理。

反方立场:企业的言论自由主张

Anthropic的诉讼策略将技术决策重新定义为政治表达。

公司主张,拒绝让Claude模型用于自主武器和针对美国人的大规模监控,是行使第一修正案权利的行为。这种"拒绝合作"被包装成一种企业言论——通过技术使用政策表达价值立场。

加州法官Rita Lin接受了这个框架。她在3月的裁决中明确将拉黑措施定性为"报复",认为政府行为与企业的价值表达之间存在因果关联。这一认定如果在上诉中维持,将创造重要的先例:科技公司的产品限制政策可能获得宪法保护。

Anthropic的财务损害论证同样具体。联邦机构和国防供应链的禁令不仅意味着直接收入损失,更关键的是声誉风险——当一家AI公司被贴上"国家安全风险"标签,商业客户的尽职调查门槛会系统性抬升。法院承认这些损害"不可弥补",因为金钱赔偿无法修复市场信任的断裂。

但特区巡回法院的回应揭示了举证难题:公司需要证明"言论正在受到压制",而不仅仅是"曾经因为言论受到惩罚"。在诉讼进行期间,Anthropic仍然可以公开批评政府政策,这削弱了"持续寒蝉效应"的主张。

关键分歧:什么是"供应链风险"

裁决书中最诚实的表述可能是这句:"Anthropic的诉请提出了新颖且困难的问题,包括第4713条下的'供应链风险'如何界定,以及何种情形构成紧急国家安全需求。"

这两个问题直指AI监管的核心模糊地带。

传统供应链风险指向硬件依赖、单一来源脆弱性、外国控制等可量化因素。将"企业拒绝特定应用场景"重新定义为供应链风险,是行政权力的显著扩张。如果这一解释成立,政府实际上获得了以国家安全名义惩罚企业价值选择的工具。

更深层的问题是AI基础设施的特殊性。与芯片或稀土不同,大模型的"供应链"包含训练数据、人才、计算资源、对齐技术等多重维度。Anthropic的案例表明,政策立场本身可能被纳入风险评估——这将使"供应链安全"成为涵盖政治忠诚度的口袋罪名。

法院将这些问题标记为"新颖且困难",意味着5月19日的口头辩论将触及行政法的基础边界。三位共和党任命法官的程序性克制,未必预示实质裁判的倾向,但确实反映了司法系统对介入国家安全决策的谨慎。

行业影响:AI公司的政治风险定价

无论最终裁决如何,此案已经改变了AI行业的合规计算。

对于Anthropic的直接竞争对手,案件创造了不对称的竞争环境。OpenAI和Google DeepMind目前没有面临同等级别的政府禁令,但它们的产品政策同样涉及敏感应用场景。如果Anthropic的"拒绝合作"策略获得宪法保护,其他公司可能被迫在价值表达和政治风险之间重新权衡。

对于国防科技生态,案件暴露了采购体系的脆弱性。军事承包商与AI公司的合作关系现在面临政策突变风险——不是基于技术性能,而是基于行政部门的政治判断。这种不确定性将推高合规成本,可能加速国防AI的垂直整合(军方自建能力)或地理隔离(转向政治更"安全"的供应商)。

对于投资者和董事会,案件提出了新的尽职调查维度。AI公司的"言论"——包括安全政策、使用限制、伦理声明——现在可能被纳入国家安全审查范围。这要求更复杂的政治风险评估框架,而不仅是技术或财务分析。

我的判断

此案的重要性不在于Anthropic能否赢得诉讼,而在于它揭示了AI治理的结构性张力。

第一,技术政策正在快速宪法化。企业的模型使用限制、安全对齐决策、应用场景排除,这些原本属于商业自主或行业自律的范畴,现在被重新定义为受第一修正案保护的表达行为。这种法律框架的迁移将深刻改变AI公司的运营逻辑——价值声明不再是公关修辞,而是具有宪法权重的政治行动。

第二,行政权力的边界测试进入关键阶段。特朗普政府将"供应链风险"扩展至涵盖企业政策立场,如果获得司法认可,将为广泛的行业干预打开大门。反之,如果法院严格限定第4713条的适用范围,将迫使行政部门回归更传统的国家安全论证。

第三,司法系统的内部张力值得关注。特区巡回法院的程序性克制与加州地区法院的实质介入形成对照,这种地理和意识形态的分裂可能随上诉程序而收敛,也可能固化为不同司法辖区对AI监管的不同态度。

5月19日的口头辩论不会给出最终答案,但将暴露法官对这三个问题的初步倾向。对于关注AI治理的从业者,这比任何产品发布都更值得追踪——它决定了未来五年行业与政府的互动规则。

当一家AI公司因为"不想造杀人机器"而被政府拉黑,法院说财务损失不算"不可弥补",但同意加速审理。这个程序性折中背后,是司法系统对介入国家安全决策的本能回避,还是对行政权力扩张的默许纵容?5月19日之后,我们会更清楚答案吗?