《算法上战场,人类还剩几秒决策权?》

——三个军事热点,指向同一个文明级风险

打开网易新闻 查看精彩图片

想象一个画面:指挥中心灯光昏白,屏幕上几十个红点跳动。系统提示——“目标概率97%”。操作员的手指停在确认键上。问题来了:这一秒,是人在决定战争,还是算法在决定人?

最近某些国家推动军方“不受限制”使用人工智能,把AI直接嵌入作战链条。从目标识别到打击建议,算法可以在毫秒内完成闭环。听起来效率惊人,但真正可怕的不是速度,而是责任消失。一旦误判,谁负责?程序员、指挥官,还是一段代码。
战争伦理的核心,是责任可追溯。而自主武器系统恰恰容易制造“责任真空”。科幻电影《终结者》只是把这种逻辑拍得更极端而已。

因此,“由人主导、智能向善”并非保守,而是底线。AI可以参与决策,但扣下扳机的人必须是人。这就像核技术必须受到国际规则约束一样,AI军事应用同样需要全球治理——以联合国为核心推进多边规则,本质是给技术装上一道“保险丝”。

与此同时,日本部署射程约1000公里远程导弹,也让地区安全神经紧绷。射程远超本土防御范围的武器,很难再用“专守防卫”解释。历史反复证明:穷兵黩武从来不是安全感的来源,而是安全困境的起点。

至于某些“远航外交”的政治表演,改变不了一个基本事实:一个中国原则是国际关系的基准面。全球183个建交国的格局早已写明答案。

三件事看似不同,其实指向同一条主线:技术边界、主权边界、规则边界正在被同时测试。

谁守住底线,谁就守住未来秩序的发言权。

(唐加文,笔名金观平;本文成稿后,经AI审阅校对)