你敢信吗?美国五角大楼刚和7家顶级AI公司签了机密合作,却把Anthropic踢出局——还骂人家CEO是“意识形态疯子”!这背后到底藏着什么矛盾?是AI伦理和国家利益的碰撞,还是一场科技巨头的权力游戏?

近日,五角大楼宣布和OpenAI、谷歌、微软、亚马逊、英伟达、SpaceX,还有一家叫Reflection AI的初创公司达成协议,允许这些公司的AI系统接触最高级别的保密数据,用来辅助战场决策、情报分析,甚至生成打击目标清单。这可不是小合作——这些AI要部署在处理美国最敏感军事信息的Impact Level 6和Level 7绝密网络上。五角大楼说,这是加速美军转型为AI优先战斗力量的关键一步。

打开网易新闻 查看精彩图片

前Uber二号人物、现在的美国国防部研究与工程副部长埃米尔·迈克尔直言,他们要给作战人员配备AI工具,实现“绝对的决策优势”。目前已经有130多万国防部人员在用军方的GenAI.mil平台,五个月里生成了数千次提示词,部署了数万个智能体。以前要做好几个月的任务,现在几天就能搞定,效率提升不是一星半点。而且五角大楼特意选了多家供应商,就是怕被单一公司卡脖子,这次合作让他们的选择面宽了不少。

你可能好奇,英伟达不是芯片公司吗?怎么也加入了?其实它不只是提供算力底座,自己也开发开源大模型。这次协议覆盖了它的Nemotron开源模型系列。英伟达CEO黄仁勋说过,在国家安全场景下,开源模型比闭源模型更好——因为它们的属性完全可知,能轻松定制成特定用途,安全性和可靠性反而更强。这可能就是五角大楼看中它的原因。

名单里还有个陌生名字Reflection AI。这家公司2024年由前谷歌DeepMind研究人员创立,去年刚筹了20亿美元,估值就到了250亿。它还没发布任何商业产品,也没有像ChatGPT那样的C端订阅服务,精力全放在开发Reflection-1底层基础模型上。更值得注意的是,它和特朗普政府关系密切,还在参与美国政府支持的韩国市场定制模型协议。公司发言人说,这次和五角大楼合作是支持国家安全的第一步,要为AI实验室和政府合作树立先例。

同为AI明星初创的Anthropic却不在名单里。其实它以前是五角大楼机密网络的主要供应商之一,Claude模型曾通过Palantir的Maven平台用于伊朗战争等军事行动。但后来它拒绝接受五角大楼的条款——担心技术被用于大规模国内监控或完全自主的致命武器系统。谈判破裂后,国防部长皮特·赫格塞斯在国会听证会上骂Anthropic CEO达里奥·阿莫代伊是“意识形态疯子”,还把Anthropic列为供应链风险企业,禁止参与国防工作。

但讽刺的是,Anthropic的最新模型Mythos Preview据说还在被五角大楼和其他联邦机构使用。这款模型被认为是最危险的AI之一——它特别擅长发现未公开的零日网络安全漏洞,还能识别和利用计算机漏洞。Anthropic没公开这个模型,只让部分安全研究人员提前访问修补漏洞。甚至白宫都在抵制Anthropic推广Mythos的计划,怕扩大访问会带来重大网络安全风险。

不止Anthropic,谷歌内部也闹起了分歧。数百名员工致信领导层,敦促公司拒绝让五角大楼在机密数据上使用谷歌AI产品。他们在信里写道,希望AI造福人类,而不是以不人道或极端有害的方式被使用。这说明科技公司内部对AI军事应用的伦理争议,已经到了公开对抗的地步。

不管有多少反对声音,五角大楼的AI军备竞赛已经全面提速。Anthropic的拒绝不仅没拖慢脚步,反而让更多竞争对手拿到了入场券。美国纽约大学法学院的布伦南司法中心2026年3月发布的《军事AI的商业运作》报告指出,五角大楼已经投入数百亿美元,以惊人速度采用新技术——如果没有监督和保障措施,AI军事应用可能危及公民自由和生命。

现在美国科技圈和政治圈正激烈碰撞:以特朗普、赫格塞斯、迈克尔为首的支持者认为,AI公司参与军事项目是重塑美国“自由兵工厂”的必然选择,AI必须服从国家利益;而Anthropic、谷歌抗议员工和民权组织则担心,这会开启一个不可控、缺乏道德刹车片的自动化战争时代。到底是决策速度优先,还是伦理审慎优先?这不仅是美国的问题,也是全人类需要思考的命题。

你觉得AI军事应用该怎么平衡效率和伦理?是该让技术服从国家利益,还是该给AI装上“道德刹车”?评论区聊聊你的看法!觉得这篇内容有价值的话,别忘了点赞收藏转发,让更多人看到这场科技与伦理的较量。