人工智能技术正重塑全球军事格局,掌握AI军事核心应用者将占据未来战场主动。
2026年5月1日,美国国防部宣布与7家全球顶尖AI企业达成战略合作,计划将其先进AI技术部署至国防部机密网络,服务于合法军事行动,此举被视为美军向“AI优先”作战力量转型的关键一步。
但另一家顶尖AI企业安特罗匹克公司(Anthropic)的缺席引发广泛猜测,其与国防部早已因AI军事使用边界陷入激烈对峙。
从合作到反目、从黑名单到法庭诉讼,这场博弈既折射出美军对AI军事应用的急切诉求,也暴露了科技企业与军方在技术伦理、使用规范上的深刻分歧。
5月1日,美国国防部发表声明,确认与SpaceX、OpenAI、谷歌、英伟达、微软、亚马逊云科技(AWS)及初创企业Reflection等7家前沿AI企业达成合作。
根据协议,这些企业的AI技术将被整合进五角大楼“影响等级6(IL-6)”和“影响等级7(IL-7)”机密网络,可处理美军最高级别敏感情报,应用于情报分析、作战规划、网络作战等关键军事任务。
国防部明确,此次合作核心是加快美军向“AI优先”转型,通过整合商业AI技术简化战场数据处理,提升作战人员决策能力,确保美军在各作战领域的决策优势。
国防部首席技术官埃米尔·迈克尔表示,这并非简单技术采购,而是深度战略协作,军方将与企业建立长期沟通机制,推动技术快速转化为作战能力。
外界分析,7家企业各有侧重、优势互补:英伟达提供算力支持,OpenAI与谷歌凭借大语言模型、图像识别技术提升情报处理效率,SpaceX星链保障通信与数据传输。
值得注意的是,此次合作距OpenAI与五角大楼单独合作仅两个多月,OpenAI首席执行官萨姆·奥尔特曼曾坦言合作时间点“刻意且草率”,侧面凸显美军推进AI军事应用的急切。
安特罗匹克公司的缺席尤为显眼,事实上其开发的克劳德(Claude)大语言模型早已被美军用于实战。
据美媒报道,今年1月美军针对委内瑞拉的军事行动中,克劳德协助完成情报分析、目标识别等任务,缩短决策周期;在对伊朗的打击中,该模型也为情报处理提供支持,其Mythos模型还被美国国家安全局用于网络漏洞修复。
双方的核心分歧的是AI军事使用边界:安特罗匹克公司坚决反对将技术用于全自主武器系统和美国境内大规模监控。
其首席执行官达里奥·阿莫代伊表示,现有AI可靠性不足,全自主武器可能突破战争伦理、造成平民伤亡;大规模监控则涉嫌侵犯隐私,且缺乏法律约束,因此绝不妥协。
今年2月,国防部长皮特·赫格塞斯与阿莫代伊会谈,要求其放宽技术使用限制,否则将其列入联邦政府供应链风险黑名单。
阿莫代伊拒绝妥协后,3月初国防部兑现威胁,此举对安特罗匹克公司商业发展造成巨大冲击,也引发外界对军方滥用权力的质疑——该标签以往仅用于美国对手企业,从未用于本土企业。
被列入黑名单后,安特罗匹克公司迅速起诉国防部,指控其行为违宪、滥用行政权力。
公司指出,国防部将其列入黑名单并非因技术安全风险,而是不满其拒绝无限制使用AI技术,此举超出法定权限、违背企业伦理,且供应链风险认定不应扩展至所有商业活动。
联邦法院审理后作出初步裁定,认为国防部行为缺乏合法依据、属违宪之举,暂停相关禁令,允许安特罗匹克公司恢复正常商业合作。
法官指出,国防部未能证明该公司存在供应链风险,其行为更像是对企业“不服从”的惩罚,而非基于国家安全的合理管控。
国防部对此不满并提起上诉,辩称无限制使用AI是国家安全需求,安特罗匹克公司的限制阻碍美军转型,黑名单是“必要管控”。
同时,埃米尔·迈克尔表示,该公司仍被视为供应链风险,但Mythos模型属“独立国家安全议题”,军方正探索规避限制继续使用该模型的方式。
美国国防部与7家企业的合作,标志着美军AI军事应用进入规模化融合新阶段,背后是其谋求全球军事霸权、巩固技术优势的战略考量。
但安特罗匹克公司与军方的对峙,暴露了科技企业伦理底线与军方军事需求、政府行政权力与企业合法权益的深层矛盾。
安特罗匹克公司的坚守,引发全球对AI军事应用边界的思考:AI应服务和平还是加剧战争风险? 美军无限制追求AI优势是否会突破伦理与法律底线?
美国国防部与7家AI企业的合作,以及与安特罗匹克公司的对峙,本质上是技术霸权、军事需求与伦理底线之间的激烈碰撞,其中折射出的问题值得全球警惕与深思。
国军方急于将AI技术大规模应用于军事领域,核心目的是维持其全球军事霸权,这种“技术优先、伦理后置”的做法,存在极大的安全隐患。
AI技术本身具有不确定性,尤其是全自主武器系统,一旦失去人类控制,可能会出现目标识别错误、滥杀无辜等严重后果,美国媒体曾披露。
美军在对伊朗的军事打击中,就曾因AI目标识别错误导致160多名小学生遇难,这一悲剧充分说明,缺乏约束的AI军事应用,只会沦为危害人类安全的工具。
安特罗匹克公司的坚守值得肯定,它体现了科技企业应有的社会责任感与伦理底线。
在军事需求的强大压力下,该公司敢于拒绝军方的不合理要求,反对将AI技术用于全自主武器和大规模监控。
这种坚持不仅保护了自身的品牌理念,也为全球AI企业树立了榜样——科技的发展不应以牺牲伦理和人权为代价,企业作为技术的创造者,有责任为技术的使用划定边界,避免技术被滥用。
反观美国国防部的做法,将不服从自身要求的本土企业列入供应链风险黑名单,甚至试图动用《国防生产法》强制企业配合,这种行为不仅违背了法治精神,也暴露了其霸权主义本质,不利于AI产业的健康发展。
此外,这一事件也反映出全球AI军事应用缺乏统一规范的现状。
目前,国际社会尚未形成针对AI军事应用的明确法律框架,各国对AI武器的研发、使用缺乏有效约束,这就导致部分国家得以肆意推进AI军事化,加剧全球军备竞赛。
美国作为全球AI技术最发达的国家,本应承担起引领AI伦理规范的责任,却一味追求军事优势,忽视技术滥用的风险,这种做法只会破坏全球战略稳定,引发更多地区冲突。
AI技术的本质是服务于人类的进步与和平,而非战争与冲突。 无论是企业还是政府,都应坚守伦理底线,推动AI技术在合理、合规的范围内发展。
美国国防部与安特罗匹克公司的博弈,也应成为一个警示:技术没有善恶,但使用技术的人有选择,唯有坚守伦理、敬畏生命,才能让AI技术发挥其真正的价值。
热门跟贴