五角大楼的会议室里,一份份合同正在签署。OpenAI、谷歌、微软、亚马逊、英伟达、SpaceX、Reflection AI——美国最强大的AI公司名单上,七家已经就位。但这份名单的空白处,藏着更值得关注的故事。
「任何合法用途」的门槛
美国国防部正在推进所谓「AI优先作战部队」的转型。七家公司承诺,其AI系统可用于「任何合法用途」(any lawful use)。这个表述极其宽泛,为军事应用打开了大门。
信息处理加速、复杂环境下的决策建议——这些是公开宣称的目标。但「合法」的边界在哪里?合同没有细化。
Anthropic的缺席因此显得格外刺眼。这家开发了Claude的AI公司,数月来与国防部僵持不下。核心分歧点:国内监控,以及完全自主的致命武器系统。
五角大楼的回应很直接——将Anthropic列为「供应链风险」,阻断其国防合同通道。Anthropic已对此提出挑战。
正方:接入即影响力
支持签约的立场很务实:不参与,就无法塑造规则。
谷歌、OpenAI等公司的选择基于一个判断——军事AI的演进不可避免,与其被排除在外,不如进入体系内部争取话语权。合同带来的不仅是收入,更是定义「合法用途」具体含义的机会。
这种思路有历史参照。网络安全、云计算领域,科技公司早期介入政府项目后,确实在后续政策制定中获得了更大发言权。技术标准的制定权,往往比技术本身更具长期价值。
另一个现实考量:国防预算的规模。错过这一入口,可能意味着在未来十年的军事AI基础设施建设中彻底边缘化。
反方:边界一旦松动,无法收回
Anthropic的拒绝基于不同的风险计算。
其公开担忧集中在两点。一是国内监控的滥用可能——「任何合法用途」的模糊表述,为情报机构的过度扩张预留了空间。二是完全自主致命武器系统的伦理与技术风险。
这种担忧并非空穴来风。原文提及,AI模型在战争模拟中「似乎对核威胁表现得很从容」(seem comfortable with nuclear threats)。当决策速度超越人类判断,误判的代价呈指数级放大。
更深层的顾虑在于商业逻辑与伦理承诺的冲突。消费者市场的信任建立在特定价值主张上——OpenAI、谷歌的部分内部人士也曾对军事用途表达过保留。完全拥抱「任何合法用途」,可能侵蚀品牌根基。
五角大楼将Anthropic列为「供应链风险」的操作,恰恰印证了反方的担忧:不合作即惩罚,这种压力会压缩企业坚持伦理边界的空间。
判断:名单的空白比名单本身更重要
这场分歧的本质,是AI行业正在经历的压力测试。
七家签约、一家拒绝的比例,说明「全面拥抱」仍是主流选择。但Anthropic的抵抗并非孤立事件——它代表了技术社区内部对军事化路径的持续质疑。谷歌和OpenAI的员工此前也曾联名呼吁限制AI的军事用途,这种内部张力不会消失。
关键变量在于「任何合法用途」的具体执行。如果国防部在后续操作中主动收窄解释、建立审计机制,签约公司的「内部影响力」逻辑可能成立。反之,若模糊性被利用为无限扩张的借口,早期介入的科技公司或将面临声誉与商业的双重反噬。
更值得追踪的是Anthropic的诉讼进展。其对「供应链风险」认定的挑战,可能为整个行业确立新的博弈规则——拒绝特定合同类型,是否必然导致全面排除?这个判例的影响将远超单一公司。
军事AI的演进已成定局,但「如何演进」仍存变数。名单上的七家公司选择了在场内博弈,名单外的Anthropic试图在场外守住某条底线。两种策略的成败,将共同定义下一个十年AI与权力的关系。
热门跟贴