最近,五角大楼宣布与七家科技巨头达成合作协议,将其人工智能(AI)技术应用于军方机密计算机网络,助力作战人员优化决策、提升战场效能,这一举措标志着美军AI军事应用进入新阶段。但外界对美军在战场上过度依赖人工智能的担忧也日益加剧,技术赋能的背后,伦理争议与安全隐患正逐渐浮出水面。
此次与五角大楼达成合作的企业涵盖了全球科技领域的核心力量,包括谷歌、微软、亚马逊云科技、英伟达等知名企业,以及开放人工智能研究中心、反射人工智能公司和太空探索技术公司。按照协议,这些企业将提供核心技术资源,帮助美军在复杂多变的作战环境中快速整合信息、优化决策流程,为作战行动提供智能化支撑。美军近年来一直在加速推进AI技术的军事应用,不仅可以大幅缩短战场目标识别与打击的时间,提升作战效率,还能协助统筹武器维护、规划补给线路,降低人力成本。
值得关注的是,AI领域的一些重要企业并未出现在这份合作名单中,其背后是该公司与特朗普政府围绕AI军事应用的激烈争执与法律纠纷。随着AI在军事领域的应用不断深入,外界的担忧也愈发强烈,核心集中在隐私侵犯、自主打击风险以及过度依赖带来的决策偏差三大方面。
AI技术在军事领域的广泛应用可能侵犯美国民众的隐私,而更令人担忧的是,若允许机器自主选择战场打击目标,可能导致平民伤亡大幅增加。此前以色列在加沙和黎巴嫩的军事行动中,美国科技巨头暗中为其提供AI目标锁定技术支持,随着当地平民死亡人数急剧攀升,进一步加剧了人们对AI军事应用伦理风险的担忧,也让“机器决定生死”的争议成为焦点。现代战争局势混乱多变,指挥人员需要根据复杂场景作出灵活决策,AI可以提供辅助,但不能替代人类的判断。更值得警惕的是“自动化偏见”,人们往往会高估机器的实际使用效果,过度信任AI给出的结论,进而放弃自身的独立判断,这在瞬息万变的战场上可能引发致命失误。
尽管争议不断,五角大楼仍在持续推进AI军事应用,强调其能为美军带来战略优势。但事实上,即便是与五角大楼签约的企业,也在协议中明确要求,AI技术的使用在特定情况下必须有人为监督,这也从侧面印证了技术应用的风险。
从本质上看,美军加速AI军事应用,是其追求军事霸权、提升战场优势的必然选择,但其忽视伦理风险、盲目推进技术落地的做法,反而可能陷入“技术依赖”的陷阱。AI技术本身存在内在的不成熟性,其决策逻辑的黑箱特性的、场景匹配的不精准性,都可能导致误判,而过度依赖AI,不仅会削弱指挥人员的决策能力,还可能因技术故障或算法偏差引发不可挽回的后果。美军在推进AI军事应用的过程中,唯有正视争议、明确伦理边界,加强人为监督与人员培训,才能避免陷入过度依赖的困境,让技术真正服务于安全与和平,而非成为新的风险源头。
热门跟贴