2026年2月28日,在美国对伊朗发动代号为“史诗愤怒”的军事行动中,伊朗最高领袖哈梅内伊在美以联合空袭中遇害身亡。此次斩首哈梅内伊的行动,被军事观察者称为“人类历史上第一次由AI主导的杀伤链”。
在硅谷,有关AI科技主权与国家安全权力之间的角力在日益加剧。但不可否认的事实是,AI正在成为美国军事系统核心。
五角大楼决心拥抱AI
早在2025 年 2 月初,尚未与特朗普公开决裂的马斯克以激进言语催促五角大楼加快拥抱 AI 科技,加速 AI 武器系统研发与配备。数日后,五角大楼一位高级官员透露,国防部正在考虑减少 AI基础性研究经费投入,转而加大对 AI 武器系统研发与部署的直接投资,希望在 4 年内形成可见成效。
2026年 1 月 9 日,赫格塞思签署了《人工智能加速战略》,意在改变当前将AI 科技嵌入旧流程的模式,使之成为贯穿美军作战、情报和管理等的“系统性基础”。其要点包括:
制定可解释、可优化的AI 军事化运用规则与制度;
设置适应AI 科技的机构与岗位;
制定并落实AI 武器系统的管理、作战运用与训练规划;
在对内整合/对外沟通的双重维度上,使美国社会相信美军拥有AI 时代的体系性优势。
变革有两大原始动力:诱惑与恐惧。五角大楼既深受AI 科技所展现的超强军事效能之诱惑,又深怀丧失优势的危机感,因而发自内心地加速推进 AI 科技军事化运用,试图以更短的周期把技术势能转化为制度势能、组织势能与作战势能,并将 AI 嵌入国防政策、战略制定、能力建设与执行评估的全链条。
五角大楼决心又好又快地拥抱AI 科技,这既源自其务实、讲究实效的行政风格,也与 AI 军事化浪潮的全球扩散叠加有关;更深层的动因则在于其试图借技术外力快速革除国防部长期官僚化办事的顽疾与惰性,从而以“可见战果”赢得政治与预算的持续支持。
与拜登政府时期依托“利马任务组”“快速能力生成小组”等专职机构进行点滴探索不同,五角大楼正在由“项目试点”转向“体系重构”,从政策到机制、从理论到组织架构全方位推动组织体系自我革命,力图“令美军在AI 时代具有无可匹敌的能力,以及令对手难以仿效的活力”。
自第三次“抵消战略”启动至拜登政府后期,美军已由信息时代赛道升级至AI 时代赛道;特朗普再度执政后,则试图向这台已在高速运转的机器注入更强劲的政治动员与资源驱动。
AI科技是人类思维文明的产物。纵观军事史,战争思维大致存在两条路径:其一,将战争视为枪炮声响起后的对抗,追求战而胜之;其二,认为战争在枪炮声响起之前就已开始,追求未战先胜。历史上绝大多数军队,即便战绩显赫,也更容易倾向于第一条路径。
AI科技凭借超强知识储备与计算 / 推理能力,为系统化反思战争历史、洞察现实约束、推演未来样态提供了近乎完美的辅助工具。五角大楼因此试图从战而胜之转向未战先胜,以眼光革命带动效率革命:在更长的时间尺度上积累基于 AI 的战争能力与战争资源,塑造更有利的战争形势与规则,提前进行战场建设与战争设计,并寻求更出人意料的制胜方式。
在AI 时代,美国作为全球性超级大国,未战先胜的前提在于把握有利的战争态势、战争规则、战争同盟、战争文明与战争技术,从而强化对全球安全态势的掌控力。五角大楼运用 AI 科技,试图实现跨政府部门、跨社会职业阶层、跨军种、跨战区、跨内部职能机构的全球数据整合:以更高效率、更高精度感知全球与地区安全形势、防务动态与关键科技进展,进而更科学地制定与实施国防政策,评估并决定美军作战与备战等重大事项。
换言之,战争思维的重心正在上移:无论是战争目的、行动方式还是参与战争的“人”,都被要求在政治、经济、文化等宏观维度中被重新理解与安置。这正是五角大楼作为美军“大脑”发起的一切飓风般变革行为的起点。
当硅谷科技精英加入陆军
从竞选到再度执政,特朗普的一系列人事布局与政治姿态,对五角大楼“启用AI 科技精英”产生了极为明显的引导效应。特朗普竞选期间力邀科技界明星马斯克助阵,后者向支持特朗普竞选的团体捐款超过2.59 亿美元。胜选之后, 特朗普又与马克·扎克伯格、比尔·盖茨、贝佐斯等人缓和关系。围绕就职仪式的政治姿态也带有强烈的象征性:贝佐斯豪掷 100 万美元,这远远超过了 2021 年他为拜登就职委员会提供的 27.6 万美元。
根据竞选财务记录,2017年贝佐斯也曾向特朗普的首次就职基金提供资金,但只有区区 5.7 万美元。这类象征性“和解”不只关乎私人关系,更在公共层面释放信号:科技资本与新政府之间的互信渠道正在被快速修复。
在特朗普政府内部,AI科技精英的存在感陡然增强。目前白宫科技政策办公室(OSTP)主任迈克尔·克拉齐奥斯曾任著名 AI独角兽 Scale AI 公司董事总经理,并曾担任斯坦福大学以人为本人工智能研究院研究员,参与并监督实施过《国家人工智能计划法案(2020)》;OSTP 人工智能高级政策顾问斯里拉姆·克里希南职业生涯始于微软,是 Windows Azure 的创始成员之一。科技精英进入白宫政策中枢,本身就是“上行示范”,其效应必然向国防系统传导。
这种传导在五角大楼层面表现得更为直接。2025年 3 月11 日,著名 AI 科技企业安杜里尔工业高管迈克尔·奥巴达尔出任美国陆军部副部长。对此,英国《卫报》指出,这类任命可能将企业利益置于国家安全之上,进而使采购决策与战略重点偏向利润驱动议程。显然,“产业高管—国防高位”的穿透式流动,本身就带来制度风险:利益冲突的可能性上升,决策偏好可能被市场逻辑牵引。
但这些隐患并未成为特朗普的主要顾虑。2025年 6 月 13 日,帕兰提尔首席技术官希亚姆·桑卡尔、Meta(脸书母公司)首席技术官安德鲁·博斯沃思、OpenAI 首席产品官凯文·韦尔、OpenAI 前首席研究官鲍勃·麦格鲁 4 名硅谷精英,以预备役身份宣誓加入美国陆军新成立、负责变革的 201 分队(Detachment 201),每年服役约 120 小时,未来将为五角大楼提供 AI 专业知识。据称,该分队名称源自 HTTP(超文本传输协议)状态码“201 Created”,意为“新资源已成功创建”。这一象征性命名明确传递出制度设计意图:以更轻量、更灵活、更“可插拔”的方式,把体制外人才纳入军队变革链条。
上述4名精英加入陆军,并不会直接增加训练有素的武器操作手,也不会立刻增加运筹帷幄的战区指挥官,但它向美国乃至全球展示了五角大楼不拘一格重视人才的制度导向:既是人事制度包容开放的见证,也是稀缺 AI 精英向国家机器集中化配置的必然结果。
2025年后,在肃穆的五角大楼内,一些反差感场景变得更为常见:正襟危坐的军人、西装革履的文职人员,与穿着举止更随意甚至身着奇装异服、染着五颜六色头发的 AI 精英同处一室。他们往往三五成群、自由组合,围绕 AI 军事化运用的关键问题,从军事、商业、科技,甚至政治、道义、社会、文化等角度展开交锋式讨论,这类场景至少证明一点:五角大楼正在提升对精英文化的普遍容纳度。
硅谷巨头们的“妥协”
2026年 1 月 3 日,美军在强行逮捕委内瑞拉总统马杜罗的行动中,从事前情报分析至事后评估行动效率,全程使用了AI 科技企业 Anthropic 研发的 AI 工具 Claude。媒体对此事曝光后,Anthropic 立即向五角大楼表达不满,理由是五角大楼破坏了该公司始终秉持的“禁止 Claude 被用于协助暴力行为、开发武器或进行监控”的原则。不久之后,五角大楼便给 Anthropic扣上了“供应链风险”的“大帽子”。
AI科技把“人—企业—社会—国家”的安全与利益以前所未有的方式深度捆绑。美国国际数据集团预测,2026 年,40%以上的企业的生产资源管理将使用 AI 科技。这是值得美国 AI 科技企业狂欢的年份,更增添了美军与 AI 科技企业之间连体式共生的时代意义。在 AI 时代,那些志在全球的 AI 科技企业,几乎以支配性方式影响美国的安全感与危机感、自信与虚弱,其根本原因在于,它们以全过程、全要素、全方位的方式系统影响美军——影响美军如何看世界、如何理解敌友、如何构建能力、如何制定规则、如何形成优势。
鉴于AI 科技的军事价值,美国 2026 财年仅在人工智能和自主系统的预算上就拨出了 134 亿美元,较去年大幅增长。如此诱人的市场利润之于 AI 科技企业,如同美味蛋糕之于食客:无论是食不果腹者还是日食万钱者,都难免垂涎。
2024年 11 月 5 日,智通财经 App 报道,Meta 公司将允许从事国家安全工作的美国政府机构和承包商,将其人工智能模型 LlaMa 用于军事目的,并正在与洛克希德·马丁等国防承包商,以及帕兰提尔、安杜里尔工业等专注于国防的科技公司合作。2024 年年初,这家著名 AI 科技企业还信誓旦旦地宣称,禁止在任何与“军事、战争、核工业或间谍活动”等相关项目中使用其产品。
2025 年 2 月 7 日财联社报道,谷歌删除了此前仍存在的“我们不会追求的应用”部分,例如“造成或可能造成整体伤害的技术”,包括武器相关应用。两家堪称龙头的 AI 科技企业改变业务与伦理底线,是 AI 产业助力美军的重要缩影,也是它们在价值观与现实利益之间重新配比后的结果。
比谷歌转向更早的是OpenAI。2024 年 12 月,曾秉持“不制造杀人机器”理念而拒绝军事化的 OpenAI,决定与安杜里尔工业合作为美军发展 AI 反无人机系统。首席执行官萨姆·奥尔特曼声称,此举将有助于确保 OpenAI 技术保护美国军人,并帮助国家安全部门理解并负责任地使用技术,以保障美国公民的安全与自由。OpenAI 强调,与美军合作旨在减少美军伤亡、降低战争对美国的伤害与损耗,这不仅不违背其和平理想,反而强化其“反对战争”的道德理念。
2025 年 6 月,OpenAI 正 式 推 出“OpenAI for Government”计划,首个合作伙伴即五角大楼,并签订上限 2 亿美元、截至2026 年 7 月的合同,应用场景涵盖改善军人及其家属获取医疗保健的方式、简化项目与采购数据分析流程、支持主动网络防御等。OpenAI 由“不制造杀人机器”转向“制造不直接杀人的机器”,实现了一种可被公开论证的道义过渡。
这种以利益为基础的道德感,在商业竞争中逐渐演化为一种表演性能力。亚马逊创始人贝佐斯决定与五角大楼合作开发旨在落实联合全域指挥与控制理念的AI 云平台时,也刻意解释其并非直接杀伤性武器,并强调未来将把相当比例的业务向国防领域倾斜。
AI 科技企业面对美军的诉求,在利益与道德之间必须完成自我解释,而这种解释会导向一个深刻的命题:纯粹道德若要成立,往往要求将其置于阳光下,接受公众监督;但 AI 科技企业采集的数据、雇用的工程师、探索的算法与模型却无法随时见光,而恰恰这些内容又可能成为致命性 AI 武器系统的灵魂。因此,企业为追求美军客户带来的可观利润,往往会不遗余力地进行道德包装,但企业利润与良善之德之间并不存在天然不可调和的对立。
同时,市场竞争也逼迫企业做出选择。在激烈的竞争中,AI企业不甘让对手拿走合同,最终在市场上死亡。苹果、OpenAI、谷歌、亚马逊、Meta、SpaceX 等巨头之间,以及无数小型与初创科技企业之间,都会争取手握巨额资金的五角大楼作为大客户,这是增强竞争力的重要手段。五角大楼领导者们的日常任务之一正是“发出积极信号,鼓励所有 AI 科技企业基于市场与商业原则,为美军带来可预测的变革”。在竞争对手面前,没有哪家企业敢轻视甚至无视五角大楼向市场投送的“诱饵”。
进一步说,AI 科技企业的成败影响美国政府的财政税收;若美国经济衰退,其全球实力优势也会衰减;若 AI 科技企业无法为美军制造性能超强的 AI 武器系统,其他国家的军队就可能获得同类武器系统,进而抵消甚至超越美国的优势;若美国的全球影响力被削弱,AI 科技企业在全球市场上的客户会减少,境外运营也将缺乏安全后盾,它们又谈何道德?
因此,AI 科技企业的成功——无论以坚守道德自我标榜,还是以市场利润作为目标——前提都趋向同一:美国的安全、优势,以及寄托于此的全球地位。
五角大楼还可能产生更强烈的欲望:主导制定甚至直接参与制定AI 领域国际规则与标准,尤其在数据、算法与模型等关键环节对他国进行引导与施压,或诱导他国仿效,而将AI 异化为带有意识形态偏见的地缘政治手段。五角大楼在带有偏见的框架下采集全球数据、建立算法规则与模型训练体系,既“理解全球”,也“影响全球”。例如,当美国企业开采的数据被他国政府或企业以合作方式共同管理时,后者也可能在数据结构与模型偏好中被美国文化塑形,潜移默化地成为美国叙事的受用者。
但世界终究是复杂的。战争与和平、道德与利益永远交织在一起。科技进步用于建立公平正义基础上的和平事业,才能成就文明;若单纯为避免战争而罔顾文明真谛,要么是蒙蔽幼稚,要么是怯弱退缩。
作者 窦国庆|作者简介 国防大学战略学博士后,陆军上校。
开白名单 duanyu_H|投稿 tougao99999
欢迎点看【秦朔朋友圈】
热门跟贴