2026年3月26日,美国联邦法官Rita Lin发出禁令,暂时阻止国防部将AI公司Anthropic列入"供应链风险"黑名单。这场官司的起因,是Anthropic拒绝让旗下Claude模型用于自主致命武器和大规模监控项目。

禁令同时冻结了一项总统指令——该指令要求所有联邦机构立即切断与Anthropic的技术合作。不过法院给了政府7天上诉期,目前裁决处于暂停执行状态。

打开网易新闻 查看精彩图片

争端公开化是在今年2月。Anthropic明确表态,不允许Claude被部署于自主 lethal warfare 或针对美国民众的大规模监控。国防部随后祭出"供应链风险"标签,这类 designation 通常用于外国对手公司。紧接着的总统指令,实质上是要将Anthropic踢出整个联邦政府采购体系。

Anthropic反手提起两起联邦诉讼,核心论点是:这一标签是对受第一修正案保护的言论的惩罚,且会扭曲AI市场竞争。法官Lin的裁定措辞严厉,认为政府措施"很可能既违法又武断任性"。

此案把三个张力同时摆上台面:AI采购规则、国家安全法律边界,以及商业AI开发商能否对政府使用方式设下伦理限制。在裁决前,这种紧张关系已在政策圈酝酿多时。

对行业竞争格局的影响立竿见影。此前"供应链风险"标签不仅封死Anthropic的国防部未来合同,还施压现有承包商与其切割——批评者认为这制造了扭曲的竞技场。法院介入的姿态表明,针对本土企业的全面禁令将面临严格司法审查,国防部可能被迫重构供应商评估机制。

更深层的信号是司法系统对政府AI contracting 的审查正在收紧。当商业公司开始用伦理红线划定合作边界,传统"甲方说了算"的国防采购逻辑遭遇挑战。这场官司的终局,或将重新定义 Pentagon 与商业AI提供商的相处规则。