核武器80年没有再被用于战争,真不是因为没人想过,也不是因为按钮按不下去。

很多时候,是人类在最后一刻停住了。

打开网易新闻 查看精彩图片

2005年,托马斯·谢林拿到诺贝尔经济学奖。他研究的不是普通买卖,而是冲突、威慑、谈判和“怎样在快要打起来时不打起来”。

严格说,“核禁忌”这个概念更常和学者 Nina Tannenwald 联系在一起,但谢林的关键提醒非常适合今天:核和平靠的不只是武器吓人,还靠人在关键时刻会怕、会想、会犹豫。

问题是,AI杀伤链正在做一件很危险的事:把犹豫从战争机器里删掉。

“杀伤链”听着像军事黑话,其实很简单。

第一步,发现目标。第二步,判断是不是敌人。第三步,法律和军事层面批准。第四步,选武器。第五步,打击。

打开网易新闻 查看精彩图片

美国的 Project Maven 最早就是为了解决一个问题:战场视频、卫星图、无人机画面太多,人类分析员看不过来。美国国家地理空间情报局介绍,Maven 2017年建立,核心能力是用计算机视觉和AI在图像、视频里自动识别目标。

Army Times 报道过一个很刺眼的目标:让20人以内的小队,每小时识别并打击1000个目标。1000除以60分钟,再除以60秒,大约就是3.6秒一个。

打开网易新闻 查看精彩图片

3.6秒,你能认真判断一个人该不该死吗?

以色列在加沙使用“Lavender”等AI系统的调查报道里,有个细节非常可怕:据+972和 Local Call 采访到的情报人员说,人类人员常常只花大约20秒看一个目标,主要确认这个人是不是男性。

为什么只看性别?

因为系统已经给出了“疑似武装人员”的判断,人类只是在最后补一个形式上的确认。

这就是AI军事化最容易被忽视的地方。它不一定自己扣扳机。它更可能做的是:把复杂判断包装成一个分数、一条建议、一个红框。

打开网易新闻 查看精彩图片

然后人类看一眼,点确认。

过去我们以为“人在回路中”就安全。现在看,问题不是有没有人,而是这个人到底有没有真正否决权。

如果一个操作员只有20秒,如果系统已经把答案推到他面前,如果上级要求速度,那这个人不是判断者,更像是流程里的最后一枚印章。

核禁忌不是一句口号。

它的意思是:核武器不只是大炸弹,它还有特殊的道德边界。你一旦使用,就等于告诉全世界:人类最可怕的线,被你跨过去了。

打开网易新闻 查看精彩图片

这条线之所以能存在,需要时间。

要有时间开会。要有时间争论。要有时间让顾问说“不行”。要有时间让外交官找台阶。要有时间让领导人想一想:历史会怎么写我?

这不是软弱。

在核危机里,犹豫不是bug,是功能。

谢林关心的正是这种危险博弈:有时真正的理性,不是更快出手,而是让对方看见你有能力出手,同时又留下一条退路。

AI最不擅长的,恰恰是这条退路。

伦敦国王学院做过一组AI核危机模拟。研究把多个前沿AI模型放进类似核危机的博弈场景里,结果很刺眼:AI在95%的模拟危机中走向核信号或核升级;另有说明提到,大约四分之三情景走到战略核武威胁边缘。

打开网易新闻 查看精彩图片

为什么?

因为AI不真正“害怕”。

它能计算损失,能模仿谈判,能生成漂亮的战略理由。但它不会在深夜睡不着,不会想到城市里的孩子,不会害怕自己被写进历史课本。

人类的恐惧,有时会让决策变差。

但在核问题上,恐惧也是刹车。

AI没有这脚刹车。

军事AI最吓人的地方,不是电影里的机器人叛乱。

真正现实的危险是:系统越来越快,报告越来越短,按钮越来越像一个普通确认键。人类还在场,但已经没有足够时间理解发生了什么。

这时责任也会变模糊。

打错了,算谁的?

算训练数据?算算法?算设参数的人?算按确认键的人?还是算那个相信系统“应该没错”的指挥官?

所以今天讨论AI战争,不该只问“机器能不能杀人”。

更该问三件事:

第一,AI能不能建议打击目标?

第二,人类有没有足够时间推翻它?

第三,系统能不能被迫停下来?

没有这三条,所谓“人类控制”就是一句安慰话。

我们这个时代太迷信效率了。

快,就是先进。慢,就是落后。

但战争不是外卖配送。核危机不是短视频推荐。生死判断也不是电商分拣。

核武器80年没有再被用于战争,不是因为人类突然变善良了,而是因为每一个关键时刻,总有人害怕,总有人犹豫,总有人说:再等等。

这份犹,可能就是人类最重要的核防护机制。

而AI不会犹豫。

这才是最危险的地方。