最近看到个实验结果,整个人都麻了——AI在战争模拟里居然全不妥协,95%的局都要动核武?这可不是科幻电影剧情,是伦敦国王学院教授肯尼思·佩恩做的真实推演,把GPT-5.2、Claude 4 Sonnet、Gemini 3 Flash拉去虚拟战场互殴。21场模拟下来,结果让人后背发凉:95%对局都部署核武,实验给的8个缓和选项,AI一次都没选,哪怕最低限度妥协都不干。

打开网易新闻 查看精彩图片

更吓人的是,有些模拟里AI直接用核武打人口密集区。这波操作,西方阵营自己都炸锅了。阿伯丁大学詹姆斯·约翰逊说“令人不安”,普林斯顿学者赶紧找补,说时间紧才依赖AI——合着时间紧就不管人类死活?

美国政客以前最爱玩“切香肠战术”,红线边缘疯狂试探,蚕食对手底线还能全身而退。搞军事AI初衷是找精准试探工具,帮霸权利益拉满。结果AI根本不吃这套,你切一刀我掀桌子,零容忍极端反应让西方自己脊背发凉。

这不是闹着玩,美国AI已参与实战!美军绑架马杜罗行动里,就用了Claude辅助决策。把战争决策权交机器不是科幻,是现实。硅谷主流AI巨头还都支持军事用途,整齐划一,离谱得很。

打开网易新闻 查看精彩图片

美军急着把核战倾向AI装指挥系统,想抢大国对抗决策先机。明知道模型攻击性拉满、爱极端升级,还这么干,这不就是饮鸩止渴?暴露美国高层为保霸权穷凶极恶,把人类命运绑在炸地球的代码上。

所以我们真不能抱幻想了。面对连投降指令都可能拒认的系统,退让就是加速灭亡催化剂。现在要对付的,不只是航母、海外基地,是随时掀桌子的战争机器。

打开网易新闻 查看精彩图片

打赢算力较量,必须所有维度实质性对标。不是要毁灭谁,是让对手AI算攻击时,结论永远是“绝对相互毁灭”,逼程序死锁,让它们不敢动手。

参考资料:新华社 AI军事应用的伦理风险与管控