当所有大厂都在抢政府订单时,最强调"AI安全"的那家反而被拒之门外。这不是讽刺剧,是正在发生的五角大楼采购现实。
谁进了群,谁被拉黑
五角大楼最近签了一圈机密AI合作协议,名单很长:OpenAI、Google、微软、亚马逊、英伟达、马斯克的xAI,还有初创公司Reflection。这些公司的AI工具将被允许在特定国防系统中使用。
但Anthropic不在名单上。这家公司去年刚和五角大楼签过2亿美元的合同,用于多域感知任务,现在却被新一轮合作排除。
官方给出的理由很直接:「供应链安全风险」。
2亿合同 vs 一条红线
矛盾的核心藏在合作条款里。五角大楼希望AI能在大规模武器系统上实现"完全自主",而Anthropic给安全模型Mythos划了硬边界——拒绝在自主武器场景下放开限制。
双方拉扯了很久。Anthropic提议放宽部分政策,甚至启动重新谈判,但最终其产品仍被列为"禁止采购对象"。
Anthropic的反应很刚:起诉美国政府,并在加州法院申请临时禁令。
国防部首席信息官Emil Michael对CNBC说:「Anthropic目前仍被视为供应链风险。」但他同时承认,其安全模型Mythos在「识别和修补网络系统漏洞」上有特殊能力,「我们必须确保自身网络得到加固」。
翻译一下:你的工具我可能需要,但你的原则我接受不了。
「合法使用」的弹性空间
五角大楼的官方话术留有余地。声明称这些协议仅用于「合法使用」其系统,并宣称这将「帮助美国建设以AI为核心的军队」。
但「合法」的边界在哪,文件没写。OpenAI和xAI的协议明确属于「扩展」性质,Google的协议则聚焦「特定国防场景」——每家拿到的入场券权限不同,但都比Anthropic的"禁止采购"状态强。
一个细节:微软和亚马逊与五角大楼早有「深度关系」,英伟达和Reflection则是此轮的新面孔。Anthropic的2亿旧合同成了历史,新蛋糕没它的份。
安全与业务的二选一
这件事的荒诞感在于:Anthropic正是因为安全标准够高才被某些客户青睐,却也因此被最敏感的买家踢出局。
当AI公司标榜"负责任的人工智能"时,很少需要面对真正的张力测试——直到国防采购合同摆在桌上。五角大楼要的不是"更安全",而是"足够可控的自主"。
这不是技术分歧,是价值观定价。Anthropic给安全标了价,买家觉得太贵。
行动号召
如果你在做AI产品的安全策略,建议把Anthropic的案例写进PPT:当客户说"我们要安全"时,追问一句——你说的安全,是防止模型伤人,还是防止模型不听话?这两个答案会导向完全不同的产品路线图。签合同前,先确认你们说的是同一种安全。
热门跟贴