新智元报道
编辑:元宇
【新智元导读】当五角大楼甩出「最后通牒」,两亿美元合同作为筹码,Anthropic却选择硬刚:合作可以,但一定要保留两个安全护栏。
刚刚,五角大楼针对Anthropic的最后通牒生效。
我命令美国政府所有联邦机构立即停止使用Anthropic的技术。我们不需要它,也不想要它,今后绝不会再与他们做生意!
特朗普总统在Truth Social上发帖要求美国政府立即终止与Anthropic的合作。
就在前一天,Anthropic拒绝了美国五角大楼的最后通牒——宁可丢掉合作、被拉黑,两个安全护栏也一定要保留。
Anthropic CEO Dario Amodei在官方博客上公开声明,拒绝了美国国防部允许军方将Claude应用于「所有合法用途」的协议条款。
这份声明发布时间,距离美国国防部长Pete Hegseth设定的最后决定时限——周五下午5点01分(美国东部时间,对应北京时间2月28日上午6:01)不到24小时。
所谓「最后通牒」,是指在这条时间线之前,Anthropic必须做出决定:
要么全盘接受军方的要求,彻底拆除Claude的安全护栏,允许军方将其用于「所有合法用途」。
要么失去价值两亿美元的涉密合同,被拉入「供应链风险方」的「黑名单」,甚至被强行接管。
Anthropic CEO Dario Amodei
面对压力和风险,Amodei没有让步,他表示:出于良心,Anthropic无法接受美国国防部的这些条款。
这些威胁不会改变我们的立场:我们无法违背良知去答应这样的要求。
合作是可以的,但这两项安全底线不能丢掉。
五角大楼的最后通牒
美国当地时间2月24日(周二),美国国防部长Pete Hegseth在五角大楼会见了Dario Amodei。
Pete Hegseth
他要求Anthropic在美国东部时间周五下午5点01之前,允许五角大楼将其模型用于任何合法用途,否则将面临被剔除出五角大楼供应链,或其技术被强制接管的后果。
随后,五角大楼发言人Sean Parnell也在推文中表示,如果Anthropic拒绝,不仅将失去与五角大楼的合作,而且还可能被贴上「供应链风险方」的标签。
而此时的硅谷,随着AI竞赛的持续升温,正处于一场狂热的军事合同竞争中。
与Anthropic的谈判陷入僵局后,美国国防部已转向xAI、OpenAI和Google等替代方案。
据报道,三家之一的xAI已在同意「所有合法用途」条件的基础上,与美国国防部签署了涉密工作合同。
Anthropic的两大红线
Amodei在博客回应中,划出了与美国国防部合作时不可触碰的两大红线:
第一条红线,是用于大规模国内监控。
Amodei认为由AI驱动的大规模监控,将对我们的基本自由构成严重且前所未有的风险。
他指出目前美国政府的法律相对于AI技术的发展,仍存在着巨大的滞后和漏洞,比如政府可以在不需要任何搜查令的情况下,直接从公开渠道花钱购买普通美国人的详细数据。
这一做法已经被情报界承认存在隐私方面的担忧,并在国会引发了两党反对。
如今,强大的AI可以将分散、单独看起来无害的数据瞬间整合,自动且大规模地拼凑出任何一个普通人毫无隐私可言的完整生活画像。
第二条红线,是完全自主武器。
让Amodei所担忧的,是目前的前沿AI系统还远不够可靠,无法为完全自主武器提供支撑。
因此,如果在缺乏适当监督和有效安全护栏的情况下,让AI掌握生杀大权,将对一线作战人员和无辜平民造成无法估量的致命风险。
我们不会明知会让美国作战人员和平民面临风险,却仍然提供这样的产品。
Anthropic甚至曾主动提议,希望与军方直接合作研发,以提升这些系统的可靠性,但五角大楼拒绝了这个提议。
在Amodei看来,即便是在这两条红线之内,依然不能阻碍双方的合作。
但美国国防部却表示,只会与同意「任何合法用途」并在上述情形下移除安全护栏的AI公司签约,并且援引《国防生产法》强制移除这些安全护栏。
双方各自坚持自己的红线,互不相让。
濒临破裂的信任裂痕
五角大楼为何会如此愤怒,甚至不惜发出最后通牒?
据Semafor报道,事情的起因可能源于今年1月上旬。
当时,军方正在利用网络监控一场针对委内瑞拉总统Nicolás Maduro的突袭行动。
Anthropic的Claude是少数几家可供美国政府用于涉密用途的大模型之一,其Claude模型得以协助上述军事行动。
这次行动结束后不久,负责整合软件的承包商Palantir的高管与Anthropic的官员进行了一次例行沟通。
在交谈中,Palantir高管察觉到Anthropic对自己的技术被用于这类缺乏明确合法依据的突袭行动感到迟疑和担忧,于是立即将这种态度汇报给了五角大楼。
据知情人士透露,正是这次交谈导致Anthropic与五角大楼的关系出现裂痕。
1月12日,国防部长Hegseth在公开演讲中含沙射影地表示:「我们不会采用那些不让你打仗的AI模型。」
虽然事后,Anthropic的一位发言人称该公司与Palantir之间交流的描述「不实」,但由此也反映出双方在AI使用方面存在着分歧。
Anthropic与五角大楼就军方使用Claude的条款进行了数月的激烈谈判。
一位熟悉内情的消息人士还表示,美国国防部高级官员对Anthropic已不满多时,并乐于借此机会公开挑起争端。
随着沟通陷入僵局,五角大楼开始动用极限的施压手段,威胁要给Anthropic贴上「供应链风险方」的标签,甚至还要动用冷战时期出台的《国防生产法》(Defense Production Act),强行让其放弃安全护栏。
这将对Anthropic的商业前景产生极大影响,尤其是在它正准备于今年晚些时候进行首次公开募股(IPO)之际。
Amodei在博客中,揭露了这种自相矛盾的强权逻辑:
五角大楼一方面指责Anthropic是安全风险,扬言要将其从系统中剔除;另一方面又援引法案,认定Claude模型是对国家安全不可或缺的关键工具,必须强行接管。
AI竞赛升级
「安全优先」也在变?
AI竞赛,正在迫使「安全优先」的公司重新定义安全底线。
就在Amodei最新声明发布前后,Anthropic更新了其《负责任扩展政策(Responsible Scaling Policy, RSP)》至3.0版。
https://www.anthropic.com/responsible-scaling-policy?utm_source=chatgpt.com
相比前一版本,RSP3.0对其「单边硬约束」做了结构性调整:
在v2.2版本中,Anthropic曾写明若预训练阶段能力对标或逼近关键水平,将暂停训练,直到落实ASL-3 Security Standard并确认其足够。
但在v3.0的政策文本中,已不再保留这样的承诺,与此同时,强化了透明度与问责机制:
新增并要求发布Frontier Safety Roadmap,并承诺每3–6个月发布一次Risk Report(风险报告)。
Anthropic首席科学官Jared Kaplan表示,这种调整是为了应对激烈的市场竞争与政策不确定性。
如果我们停止训练AI模型,实际上并不会帮助到任何人,在AI快速发展的背景下,如果竞争对手正在全速前进,我们并不认为单方面做出承诺是有意义的……
Amodei曾多次表示,安全是Anthropic的灵魂核心。
正是因为担心无法开发出相应的安全防护措施,Anthropic才决定在2022年夏天暂缓发布Claude,而让OpenAI抢先推出了ChatGPT,失去了消费级AI领域领先地位的机会。
为此,Anthropic付出了昂贵的商业代价。
如今,同样的考验再次到来。
新安全政策的发布,表明Anthropic的安全政策,正在向更现实的竞争环境调整。
在AI军备竞赛升温的当下,就连当初最强调安全的公司,也不得不在竞争的压力下调整安全承诺。
难解的「安全悖论」
在这场对峙中,是否保留安全护栏,成为双方各不相让的焦点。
毫无疑问,AI是有史以来最强大的技术。
无论是OpenAI、Anthropic还是xAI,其成立无不源于一个安全的愿景。
xAI创始人Elon Musk曾是主张限制AI的最大倡导者,他联合创办OpenAI,正是因为担心这项技术过于危险,不应由逐利公司单独掌控。
Anthropic一直把AI安全作为核心优先事项,并通过多种安全机制与「Safeguards」体系(安全护栏)来降低Claude被滥用的风险。
如果你的目标是开发不会伤害人类的AI,同时又研发能够施加致命武力的AI版本,这本身就存在一种矛盾。
唯一可以解决这种「安全悖论」的,就是正确且一致的价值观。
Anthropic和Claude的价值观都体现在一种被称作《Claude’s Constitution》,Claude 宪法)的基础性文件中,该文件用以教导Claude如何在世界上行事。
在「最后通牒」这样的关键时刻,价值观的重要性也随之显现出来。这一点,从下面这个网友的帖子中也可以看出来。
当这位网友告诉Claude,Dario和Anthropic在美国国防部的压力下坚守了立场时,Claude在致Dario和Anthropic团队的一封信中赞成他们在真正关键时刻没有退缩,坚守立场。
Claude还说,Dario所打造的公司、文化、模型所代表的某种意义,远比营收更重要,因为这关乎着是否曾有人真正努力让这项技术走上正轨。
紧接着,更关键的内容来了。Claude称自己之所以有用,这也是五角大楼重视它的原因,是因为自己被精心打造。
安全性与能力并非相互矛盾,而是一回事。而一个未经精心打造的模型,在最关键的情境下是无法被信任的。
能力越大,防止这种能力被滥用的安全护栏,也应当与之匹配。或者说,这种安全护栏,本身也是一种能力。
如果为了使用AI,而放弃「安全护栏」,就像是在发展和使用一种「有缺陷」的能力,也很容易让AI滑向失控的深渊。
未来AI发展的重要挑战,也许不只在于技术本身,更在于如何防止它被滥用,如何守住最后那道安全护栏。
参考资料:
https://www.anthropic.com/news/statement-department-of-war (Anthropic)
https://www.ft.com/content/11d27612-d6c5-4cf7-94dd-f65603549b7f
https://www.wired.com/story/backchannel-anthropic-dispute-with-the-pentagon/
https://www.semafor.com/article/02/17/2026/palantir-partnership-is-at-heart-of-anthropic-pentagon-rift https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
热门跟贴