一家估值180亿美元的AI公司,因为拒绝放开聊天机器人的使用限制,被国防部贴上"国家安全风险"标签。这不是科幻剧本,是Anthropic正在经历的现实。
冲突爆发:从合同条款到黑名单
3月底,国防部长Pete Hegseth将Anthropic列入供应链风险名单。直接导火索:Claude拒绝配合监控和自主武器研发。公司主张AI安全红线,军方要的是无限制调用。
Anthropic的回应很硬——起诉,指控这是报复性打压。公司律师团队算过账:黑名单若坐实,损失将以十亿美元计。客户流失、融资受阻、政府合同冻结,每条都是命脉。
司法部则咬死一点:这是合同争议,与AI伦理立场无关。双方各执一词,法庭成了角力场。
司法拉锯:两州法院给出相反信号
戏剧性在于司法系统的分裂。加州联邦法院3月底裁定支持Anthropic,暂时叫停黑名单执行。但本周三,华盛顿特区上诉法院拒绝跟进,维持国防部决定有效。
这是美国历史上首次有本土企业被公开标记为供应链威胁。先例一开,影响的不只是Anthropic——任何持有安全底线的科技公司,都可能面临类似压力。
最终裁决尚未落地。但上诉法院的倾向已经说明:在国家安全叙事面前,企业安全政策的议价空间有限。
Anthropic的困境:理想主义成本核算
Claude的设计哲学向来强调"有益、无害、诚实"。这套原则写在公司章程里,也是吸引投资人的差异化标签。但当客户变成国防部,原则成了交易障碍。
公司高管内部有过激烈讨论。据接近决策层的人士透露,妥协方案曾被摆上桌面——有限度开放部分场景,换取名单移除。但最终投票,反对票占多数。
代价正在显现。知情人士称,至少两家联邦机构已暂停与Anthropic的试点合作。一家大型云服务商也在重新评估分销协议。黑名单的寒蝉效应,比法律本身传播更快。
更隐蔽的风险在人才端。AI安全研究员的招聘周期明显拉长,候选人反复询问"公司还能独立运营多久"。
这场官司的终局,会重新定义AI公司与国家机器的关系边界吗?还是说, Anthropic只是第一个踩线的警示标本——安全承诺在特定订单面前,终究要让步?
热门跟贴