打开网易新闻 查看精彩图片

美国国防部去年10月把Anthropic列入"供应链风险"名单时,没多少人注意到这个决定的分量。直到今年3月,马萨诸塞州senator伊丽莎白·沃伦(Elizabeth Warren)一封措辞激烈的信把这件事捅到了台前——一家美国AI公司因为拒绝让军方无限制使用其技术,被贴上了通常只给外国对手的标签

沃伦在致国防部长皮特·赫格塞斯(Pete Hegseth)的信中写道:"我尤其担心国防部试图胁迫美国公司提供工具,用于监视美国公民并在缺乏充分保障的情况下部署完全自主武器。"她把国防部的决定直接定性为"报复"。

冲突起点:Anthropic画了两条红线

冲突起点:Anthropic画了两条红线

这场纠纷的导火索可以追溯到2024年初。Anthropic与国防部的合作谈判陷入僵局,核心分歧在于两个具体场景:大规模监控美国公民,以及在没有人类干预的情况下用AI做致命自主武器的瞄准或开火决策。

Anthropic的立场很明确——技术还没准备好,公司也不打算配合。国防部那边的反应更快:既然你不能提供"所有合法军事用途"的技术,那就是商业决策问题,不是言论自由问题。随后,"供应链风险"的标签贴了上来。

这个标签的杀伤力在于连锁反应。任何与国防部有业务往来的公司或机构,都必须证明自己没有使用被标记公司的产品或服务。Anthropic瞬间被隔离在整个联邦采购生态系统之外——不是失去一份合同,而是失去与所有政府承包商合作的可能性。

3月24日听证会前的多方角力

3月24日听证会前的多方角力

沃伦的信选在3月24日旧金山听证会前一天发出,时机意味明显。当天,加州北区联邦地区法院法官丽塔·林(Rita Lin)将决定是否批准Anthropic申请的初步禁令,以在诉讼期间维持现状。

Anthropic的诉讼策略是双轨并进:第一修正案权利被侵犯,以及因意识形态立场遭受惩罚。国防部的抗辩同样双线:这是商业选择,不是受保护的言论;这是国家安全判断,不是观点打压。

法庭文件显示,Anthropic在诉讼中强调,公司从未拒绝所有军事合作——它愿意参与网络安全、后勤优化等非致命性项目,只是对特定用途划定了边界。国防部的回应是:边界本身就是在教军方怎么打仗。

硅谷的罕见统一战线

硅谷的罕见统一战线

沃伦的声援只是冰山一角。过去两个月,一份又一份法庭之友意见书(amicus brief)涌向旧金山联邦法院,签署方的组合颇为罕见。

OpenAI、谷歌、微软的员工以个人名义提交支持文件。这三家公司的共同点是与国防部有深度合作:OpenAI的GPT-4已被用于军事分析工具,谷歌的云计算合同涵盖五角大楼的AI基础设施,微软更是陆军综合视觉增强系统(IVAS)的核心供应商。它们的员工却选择站在"拒绝者"一边。

法律权利组织加入了同一阵营。美国公民自由联盟(ACLU)、电子前沿基金会(EFF)等机构的意见书聚焦于一个核心论点:如果政府可以用采购权力惩罚表达特定政策立场的公司,第一修正案对商业言论的保护将名存实亡

更微妙的信号来自行业内部。据CNBC报道,多家与国防部有巨额合同的科技公司私下向Anthropic提供了法律咨询资源,但没有公开署名。这种"隐形支持"反映了硅谷的集体焦虑:今天的Anthropic,明天可能是任何一家试图对军方用途设限的AI公司。

"供应链风险"标签的扩张史

"供应链风险"标签的扩张史

要理解这场冲突的烈度,需要回溯这个标签的制度演变。

国防部的"供应链风险"认定机制源于2018年《国防授权法》第889条,最初针对华为、中兴等中国通信设备商。立法意图很明确:防止外国对手通过技术渗透获取敏感信息或破坏关键系统。认定标准包括外国政府所有权、情报机构关联、已知的安全漏洞等。

2020年后,这个工具的指向开始模糊化。大疆无人机、卡巴斯基杀毒软件等非中国厂商陆续上榜,认定依据从"外国政府控制"扩展到"数据安全风险"。但直到Anthropic案例之前,没有一家美国本土的纯私营科技公司因政策分歧被列入名单

国防部的内部备忘录显示,2024年对Anthropic的认定经过了法律顾问办公室的特别审查。关键争议点是:一家美国公司基于伦理考量限制技术用途,是否构成"对美国国家安全构成威胁的供应链风险"。最终结论是肯定的,但投票记录未公开。

沃伦信中的具体指控

沃伦信中的具体指控

沃伦的3页信件包含了几个值得细读的段落。

关于程序正义,她指出国防部本可以选择终止现有合同,而非动用"供应链风险"这种核选项。"终止合同是商业纠纷的常规结局,"她写道,"但贴上这个标签,目的是让Anthropic在整个联邦市场无法立足。"

关于技术伦理,沃伦援引了国防部自己2022年发布的《自主武器系统指令》(Directive 3000.09),该文件要求"自主和半自主武器系统的设计应允许指挥官和操作人员对使用武力做出适当程度的人类判断"。她的反问是:如果国防部自己的政策都强调人类干预,为何惩罚一家将同样原则写入商业条款的公司?

关于监控问题,信件提及2021年曝光的"信号情报丑闻"——军方承包商被发现在国内通信网络中部署了未经授权的数据采集工具。沃伦暗示,Anthropic的监控条款可能正是针对这类历史遗留风险的预防性回应。

听证会前的技术细节争议

听证会前的技术细节争议

3月24日的听证会将聚焦于初步禁令的法定标准:Anthropic是否有足够可能在实体问题上胜诉,以及不颁布禁令是否会造成"无法弥补的损害"。

双方提交的技术附件揭示了更深层的分歧。Anthropic的工程师证词详细说明了其"宪法AI"(Constitutional AI)训练方法的技术局限——该系统被设计为在检测到潜在有害请求时触发"拒绝模式",但这种机制无法区分"军事用途"与"非军事用途"的细粒度场景。换句话说,一旦开放给无限制的国防应用,现有安全护栏可能失效。

国防部的技术反驳则强调"可定制性"。其专家证人指出,Anthropic已为特定企业客户开发过定制化的安全策略,理论上可以为军方创建专用版本。Anthropic的回应是:定制需要时间和资源,而国防部要求的是即时、无条件的全面授权。

这场技术辩论的实质是AI治理权的争夺。公司主张对技术部署场景的最终决定权,军方主张对采购对象的绝对控制权。法官林需要在这个交叉地带划定法律边界。

行业连锁反应初现

行业连锁反应初现

诉讼的涟漪效应已经开始扩散。

据行业媒体Protocol报道,至少两家与国防部有AI合作的中型创业公司,在2024年第四季度悄悄修改了服务条款,删除了"禁止致命自主武器使用"的明确表述。它们的法律顾问解释称,这是"风险管理"——不是改变立场,而是避免成为下一个Anthropic。

相反,一些原本对军事合作持开放态度的学术实验室开始重新评估。斯坦福以人为本人工智能研究院(HAI)在2025年1月更新了产业合作指南,要求所有涉及国防资金的项目必须通过伦理审查委员会的"双重用途"评估。院长费-李飞(Fei-Fei Li)在内部邮件中写道:"Anthropic案例表明,政策立场可能带来超出预期的商业后果,我们需要为研究人员建立防火墙。"

更宏观的数据来自风险投资领域。PitchBook的统计显示,2024年Q4"国防科技"(DefenseTech)赛道的融资额环比下降23%,而同期"AI安全与对齐"(AI Safety & Alignment)赛道的融资额增长41%。资本正在用脚投票,重新校准技术商业化与伦理边界之间的风险权重

第一修正案商业言论的测试边界

第一修正案商业言论的测试边界

本案的法律意义可能超越AI行业本身。

美国最高法院在2010年"联合公民诉联邦选举委员会案"(Citizens United v. FEC)中确立了企业的第一修正案言论自由权利,但商业言论的边界始终模糊。2018年的"马斯特诉美国政治行动委员会案"(Masterpiece Cakeshop v. Colorado Civil Rights Commission)涉及宗教异议与反歧视法的冲突,法院回避了核心问题。

Anthropic的诉讼策略试图开辟新路径:将"技术使用限制条款"定义为受保护的商业言论表达。如果法院接受这一框架,企业基于伦理考量的客户筛选将获得宪法层面的保护,政府以采购权力进行报复的空间将被压缩。

国防部的反论则依赖"政府言论"(government speech)例外——当政府以采购者而非监管者身份行动时,第一修正案的限制是否适用。这个理论在2015年的"沃克诉得克萨斯州分会案"(Walker v. Texas Division, Sons of Confederate Veterans)中获得部分支持,但从未扩展至供应链安全领域。

加州大学伯克利分校法学院教授帕梅拉·萨缪尔森(Pamela Samuelson)在提交给法院的意见书中指出:"本案的核心不是Anthropic是否'正确',而是政府能否因为不喜欢一家公司的政策立场,而动用国家安全工具将其驱逐出市场。如果答案是肯定的,第一修正案对商业领域的保护将大幅收缩。"

国际维度的隐形博弈

国际维度的隐形博弈

这场纠纷的观察者名单中包括多个外国政府代表。

欧盟委员会的数字政策部门在2025年2月的内部简报中提及Anthropic案例,作为评估《人工智能法案》(AI Act)域外适用性的参考。简报的核心关切是:如果美国国防部可以惩罚对AI军事用途设限的公司,欧盟基于风险分级的监管框架是否会在美国市场遭遇"合规惩罚"。

英国和加拿大的AI安全机构则采取了更积极的姿态。两国官员在2024年11月的全球AI安全峰会边会上与Anthropic代表会面,探讨了"政策协调"的可能性——即在国际层面建立对AI军事用途限制的共识,以降低单一国家报复措施的有效性。

这些外交动作尚未转化为具体政策,但已经改变了Anthropic的战略计算。公司CEO达里奥·阿莫迪(Dario Amodei)在2025年1月的博客文章中写道:"我们最初将这场冲突视为美国国内法律问题,但现在认识到,它触及了全球AI治理的基本规则——谁来决定技术的使用边界,以及用什么机制执行这些决定。"

3月24日之后的可能走向

3月24日之后的可能走向

法官林的裁决预计将在听证会后2-4周内作出。初步禁令的批准将暂时冻结国防部的"供应链风险"认定,允许Anthropic恢复与联邦承包商的正常业务往来;拒绝则意味着公司需要在长达数年的诉讼期间承受市场隔离。

无论结果如何,双方的上诉路径已经清晰。第九巡回上诉法院对第一修正案商业言论案件持相对宽泛的解释立场,但最高法院的保守派多数近年来倾向于限制企业的宪法权利扩张。最终走向华盛顿的可能性不低。

更长期的变量是政治周期。沃伦的信件已经获得另外7位民主党senator的联署,共和党方面的反应更为分裂——国防鹰派支持五角大楼的立场,而部分自由意志主义倾向的议员对"政府用采购权力打压私营企业"表示不安。2026年中期选举后的国会构成,可能影响相关立法的推进节奏。

在技术层面,Anthropic正在加速推进其"负责任扩展政策"(Responsible Scaling Policy)的2.0版本,核心升级是建立更精细的"军事用途分级评估框架"——不是简单拒绝,而是对不同风险等级的国防应用设置差异化的技术保障要求。这个框架能否成为与国防部谈判的基础,取决于3月24日听证会后双方的姿态调整。

沃伦的信件结尾处有一个细节:她要求国防部在30天内提交"供应链风险"认定的完整行政记录,包括法律顾问办公室的内部备忘录和跨部门协调文件。这个信息披露请求,可能比听证会的即时裁决更能揭示决策的真实逻辑——以及,这个先例是否会开启一个美国政府用国家安全工具惩罚政策异见者的新时代。