哈喽,大家好,今天小睿这篇国际评论,就来拆解五角大楼将马斯克 Grok 纳入 “AI 武器库” 这事儿。
近日,美国国防部正式发布公告,将埃隆·马斯克旗下xAI公司开发的Grok人工智能系统纳入其“企业级AI能力库”,并整合至新推出的GenAI.mil平台。
这一举措标志着硅谷科技巨头与五角大楼的合作进入实质性落地阶段,也让商业化AI技术的军事应用再迈一步。
官方特别强调,Grok的核心能力集中在“安全处理受控非机密信息”和“获取X平台实时全球洞察”,主要用于提升日常办公效率与信息获取能力,并非直接参与作战决策或武器控制。
这场合作并非突发,而是美军近十年“绑定”硅谷战略的延续。回溯2014年,美国防部副助理国防部长威尔比造访12家硅谷科技公司,正式拉开双方合作序幕。
此后谷歌前CEO埃里克·施密特牵头的国防创新委员会、战略资本办公室(OSC)等机构相继成立,构建起系统化的合作机制。
而俄乌冲突中,SpaceX“星链”保障战场通信、Primer AI助力情报分析的实战表现,更让美军看到了商业化科技的军事价值,加速了深度合作的推进。
Grok的入驻从消息披露之初就伴随多重争议。
首先是市场竞争的公平性问题,目前亚马逊、微软、Palantir等科技巨头均在角逐美军AI相关合同,Grok凭借先发优势切入GenAI.mil平台,被质疑可能加剧行业竞争失衡。
更核心的争议集中在伦理风险与历史污点上。
值得关注的是,2025年7月,Grok曾因软件更新出现严重问题,公开传播反犹言论、赞扬希特勒,甚至支持“二次大屠杀”,这一事件导致其被土耳其等国全面封杀,引发全球对其算法安全性的广泛质疑。
尽管xAI公司事后紧急修复并道歉,但这一历史污点让其军事应用的伦理合规性备受争议,军事技术伦理专家指出,GenAI.mil平台虽明确暂不涉及致命性应用,但Grok接入实时战场相关信息后,若算法出现偏差,仍可能间接影响情报判断的客观性。
此外,监管机制的有效性也遭到质疑。美国国防部虽在2020年出台AI伦理原则,强调“适当判断、可追溯、可治理”,但军方AI应用的封闭性导致外部独立审查难以介入。
而2025年1月特朗普政府签署的《消除美国AI领导力障碍》行政令(EO 14179),虽以提升AI产业竞争力为核心目标,却被部分批评者认为可能间接削弱军事AI应用的监管门槛,进一步放大风险。
已有部分AI行业从业者公开表达担忧,害怕商业化技术最终沦为战场工具。
值得注意的是,美军空军原有生成式AI聊天机器人NIPRGPT将在2025年12月31日正式关闭,这一决策并非专为Grok“让路”,而是空军基于GenAI.mil平台的整体部署规划,属于原有技术迭代计划的提前落地。
这一调整背后,是美军战略思路的重大转变,放弃定制化军事专用AI系统,转向大规模整合商业化AI技术。
从表面看这一转变契合特朗普政府“低成本高效能”的施政理念,既能借助硅谷成熟的技术积累快速形成能力,也能降低军事AI研发的长期投入。
但深层隐患同样不容忽视:商业化AI的训练数据与逻辑以民用场景为核心,与军事场景对安全性、稳定性、抗干扰性的特殊需求存在本质差异,其在复杂战场环境下的可靠性尚未经过充分验证。
与以色列军方在加沙冲突中使用AI筛选打击目标的致命应用不同,当前GenAI.mil平台的功能更偏向“办公效率升级”。
但专家警告,这种“渐进式”的技术整合,恰恰是AI军事应用从辅助功能向核心领域渗透的危险过渡若监管机制未能同步完善,随着技术迭代,商业化AI介入军事决策的深度可能超出预期,给全球安全格局带来难以预测的影响。
这场硅谷科技与五角大楼的“强强联合”,究竟是提升军事效率的创新尝试,还是打开AI武器化的“潘多拉魔盒”?后续的技术落地效果与监管措施,值得全球持续关注。
热门跟贴