打开网易新闻 查看精彩图片

一份合同谈崩,能让美国总统亲自下令封杀一家公司。Anthropic(人工智能初创公司)上个月刚拿到五角大楼的订单,转眼就被列入"供应链风险"黑名单,理由是它拒绝修改用户协议。加州北区法官Rita Lin今天出手拦截,从立案到裁决只用了不到一周。

这场冲突的导火索藏在合同细节里。国防官员要求Anthropic在条款中加入"所有合法用途均可"的表述,相当于给军方使用其大语言模型Claude(克劳德)开绿灯。Anthropic的回应很干脆:不行。公司担心这套系统可能被用来开发完全自主武器,或者转向监控美国民众。

总统令跟着就来了。特朗普要求所有联邦机构六个月内停用Claude,国防部长Pete Hegseth随即把Anthropic钉上风险名单。这套组合拳的速度,让硅谷想起当年TikTok的遭遇——只不过这次动手的理由不是数据安全,而是一家公司"太有原则"。

Anthropic的反击路径选得很刁钻。它没有纠缠合同违约,而是直接诉诸宪法:第一修正案保护言论自由,第五修正案保障正当程序。公司指控政府因其AI安全立场实施报复,且未给予申诉机会就贴上标签。

法官的裁决书撕开了行政命令的缝隙

Rita Lin的措辞不留情面。"被告将Anthropic列为'供应链风险',很可能既违法又武断专横,"她写道,"战争部(国防部旧称)从Anthropic坚持使用限制的坦诚态度中,推断不出任何可能使其成为破坏者的依据。"

这份临时禁令的边界很清晰:它不强迫国防部继续合作,也不阻止军方转向其他AI供应商——前提是"符合适用法规、成文法及宪法条款"。换句话说,政府可以换供应商,但不能因为对方讲规矩就给人穿小鞋。

Anthropic的回应保持了它一贯的公关调性。"虽然这起诉讼对保护Anthropic、客户和合作伙伴是必要的,"公司声明称,"我们的重点仍在于与政府建设性合作,确保所有美国人都能从安全可靠的AI中受益。"

这套话术翻译过来就是:官司要打,但生意也想做。

Claude的安全锁设计成了双刃剑

Claude的安全锁设计成了双刃剑

理解这场冲突,得先看清Anthropic的产品哲学。与OpenAI的GPT或Google的Gemini不同,Claude从架构层面嵌入了"宪法AI"(Constitutional AI)机制——一套自我约束的规则集,试图在训练阶段就过滤有害输出。

这种设计让Claude在企业客户中口碑不错。银行用它处理敏感文档,律所用它检索判例,医疗机构试探性地接入病历分析。但同样的机制,在国防场景里成了障碍。

军方想要的是什么?根据公开招标文件,国防部的AI需求覆盖情报分析、后勤优化、模拟推演,以及——虽然官方措辞谨慎——"自主系统决策支持"。最后一项的模糊空间,正是Anthropic拒绝妥协的核心。

公司创始人Dario Amodei和Daniela Amodei兄妹的背景值得注意。两人出自OpenAI,2021年因安全理念分歧出走创业。Dario Amodei多次公开警告"超级智能"的失控风险,Daniela Amodei则主导建立了Anthropic的负责任扩展政策(Responsible Scaling Policy)。

这对兄妹把安全当成了差异化卖点,也当成了道德护城河。问题是,当客户是地球上军费开支最大的机构时,这条河是护住自己,还是困住自己?

AI合同战的冰山一角

AI合同战的冰山一角

打开网易新闻 查看精彩图片

五角大楼的AI采购正在经历结构性膨胀。2024财年,国防部在人工智能相关项目上的支出超过18亿美元,涉及600余个独立项目。Palantir、Anduril、Scale AI等防务科技新贵分食蛋糕,传统巨头如微软、亚马逊、Google也在争夺"联合战争云"(Joint Warfighting Cloud Capability)的巨额订单。

Anthropic的入局原本是个信号:纯民用AI公司开始撬动国防市场。它的挫败则揭示了另一层现实——安全承诺与军事需求之间的张力,远比商业谈判复杂。

一个对比案例是OpenAI。该公司2024年初修改服务条款,删除"禁止军事用途"的明确表述,改为禁止"造成伤害"的宽泛框架。这一调整被解读为向国防合同敞开大门,随后 indeed 拿下了美国空军的生成式AI试点项目。

Anthropic选择了相反路径。它宁愿失去联邦市场,也要守住条款底线。这种"头铁"在硅谷引发两极评价:有人视为道德勇气的标杆,有人批评为书呆子式的商业自杀。

法官今天的裁决暂时缓解了后者的担忧。但临时禁令不等于终局胜利——案件仍在审理,宪法主张能否成立,还要看后续举证。

第一修正案能保护代码吗?

第一修正案能保护代码吗?

Anthropic的法律策略触及了一个尚未充分探索的领域:AI模型的输出,是否构成受宪法保护的"言论"?

传统上,软件代码曾被法院认定为言论表达——1999年Bernstein诉美国司法部案中,第九巡回法院裁定加密代码受第一修正案保护。但大语言模型的生成内容是否同理,尚无明确判例。

公司的诉状试图建立一条链条:Claude的响应是其训练哲学和安全约束的产物,限制这些约束等于强迫改变"表达内容"。政府则很可能反驳:合同条款属于商业行为,不涉及言论管制。

Rita Lin的初步裁决暗示了她对政府动机的怀疑。"武断专横"(arbitrary and capricious)是行政法上的致命批评,意味着决策缺乏合理依据。她特别指出,Anthropic的"使用限制"是公开透明的,从中推导出"供应链风险"属于逻辑跳跃。

这一判断如果维持,可能影响更广泛的AI监管框架。联邦机构近年频繁以"国家安全"为由限制技术合作,从半导体出口管制到数据跨境流动,"供应链风险"已成为万能标签。法院若要求更严格的举证标准,将重塑行政部门的行动空间。

特朗普政府的反应值得关注。总统令的措辞将Anthropic的安全立场定性为"不配合联邦需求",这种叙事与本届政府对"觉醒资本主义"(woke capitalism)的批判一脉相承。如果司法系统持续掣肘,行政分支可能寻求立法或监管规则的修改。

短期来看,Anthropic的联邦业务仍处于冻结状态。临时禁令只阻止了"供应链风险"标签的法律效力,并未恢复合同执行。公司声明中"建设性合作"的措辞,暗示双方可能在法庭外寻找出口——比如重新谈判条款措辞,或限定Claude在国防场景中的具体用途。

一个技术细节可能左右结局:Claude的"宪法AI"机制是否允许模块化调整?如果安全约束可以针对特定客户或场景开关,Anthropic或许能找到既保全面子又不违背原则的折中方案。但公司过往表态显示,它对"滑向武器开发"的警惕是结构性的,不是修辞性的。

这场官司的旁听席上,坐着整个AI行业的焦虑。当技术能力超越社会共识,每一家公司都面临类似抉择:谁的钱能赚,谁的不能?边界该由自己画,还是等监管来画?Anthropic选择了前者,并为此付出了联邦市场的代价——至少目前如此。

法官的裁决让它暂时喘了口气。但真正的问号悬在更远处:如果下一家AI公司做出不同选择,如果安全承诺与商业扩张的冲突以另一种形式爆发,今天的判例会成为护栏,还是只是延迟了碰撞的时间?