打开网易新闻 查看精彩图片

俄新社:科学家指出军事冲突中使用人工智能的主要风险

近期,在打击伊朗以及委内瑞拉军事行动中使用人工智能的细节被披露。专家认为,这只是战争大规模转型的开端,神经网络在作战决策中的作用将迅速提升。俄新社对此进行了报道。

五角大楼已证实人工智能在军事行动中被使用,但拒绝透露细节。

据悉,包括帕兰提尔技术公司(Palantir Technologies)研发产品在内的情报平台正在收集海量信息,从卫星图像到特工情报。随后算法对其进行分析,确定优先打击目标、选择最优武器,甚至评估打击的法律依据。

俄新社援引俄罗斯科学院世界经济与国际关系研究所国际安全中心研究员德米特里・斯特凡诺维奇的话称:

“借助人工智能,可以更高效地调配兵力和装备,确保在综合所有因素下完成打击任务 —— 从敌方拥有的对抗手段,到该地区的地理、地形特点,直至天气情况。”

人工智能系统几乎能瞬间提供行动方案。不过目前扣动扳机的依然是人。但军方已在讨论扩大神经网络在这一环节自主性的可能。

专家指出,最大的危险不在于人工智能技术本身,而在于人类开始盲目信任算法的结论,却并不总能理解其决策逻辑。

科学家也发出了警示。伦敦国王学院近期开展了一项实验,让三款主流神经网络模拟核危机:GPT‑5.2、Claude 和 Gemini。结果显示,在95% 的场景中,人工智能都选择使用核武器。

这表明,机器的战略逻辑可能与人类截然不同,且远比人类更激进。

专家越来越频繁地发出警告:如果将越来越多的权限交给算法,对全球安全造成的后果可能极其严重。