2026年2月28日,深夜。伊朗米纳卜,一所学校的废墟下,挖出了165具尸体,其中至少50名是儿童。尽管美军披露的真相冰冷而残酷:这次事件来自美军战斧导弹的袭击。但更令人不寒而栗的是隐藏的秘密——导致这场屠杀的,不仅仅是炸弹,还有一行过时的代码。
当我们还在讨论ChatGPT会不会抢走程序员的饭碗时,真正的“巨兽”早已悄然入局。在现代战争的“杀伤链”上,人工智能不再是旁观者,它成了决策的一部分。于是,我们不得不面对一个极其沉重的话题:当AI进入战争决策,究竟谁该负责?
“杀伤链”压缩:用算法换效率
军事圈最近有个热词,叫“杀伤链压缩”。听起来很科幻,其实逻辑很简单:以前发现目标到实施轰炸,需要情报分析师看卫星图、指挥官开会、层层审批,可能要几天;现在AI介入,几秒钟就能完成“识别-匹配-建议打击”的全过程。效率提升了,容错率呢?归零。
在2026年初的美以联合行动中,AI系统被用来处理海量情报。但问题来了:AI是基于历史数据训练的。如果数据是旧的,或者带有偏见,AI就会一本正经地胡说八道。
米纳卜学校的悲剧,据称就是因为系统使用了“过时的目标情报”。在被压缩到极致的决策链条里,人类审核员往往只有几秒钟甚至没有时间去验证一个“机器推荐”的真实性。
这不仅是技术的悲剧,更是人性的异化。早在加沙冲突中,以色列国防军就部署了名为“福音”(The Gospel)的AI平台。它像一座死亡工厂,批量生成打击目标。还有一个叫“Lavender”的系统,负责自动筛选“恐怖分子嫌疑人”。
在那里,战争变成了流水线作业:
AI负责名单,“这栋楼里有哈马斯,炸。”
AI负责时机“目标现在在卧室,命中率95%,炸。”
人类负责按回车键:“同意。”
当杀人变成了“数据处理”,当平民伤亡变成了“可接受的算法误差”,战争最底线的伦理——对生命的敬畏,正在被代码悄悄抹去。
硅谷硬刚五角大楼:科技巨头的“觉醒”与生存
就在前线的算法疯狂吞吐数据时,后方的博弈更精彩。
2025年秋天,美国国防部给AI独角兽Anthropic下了死命令:“把你们的大模型Claude给我用,用于‘所有合法用途’。”啥叫“所有合法用途”?懂的都懂,包括致命自主武器系统,包括大规模监控。
Anthropic的CEO达里奥·阿莫代是个硬骨头,他回了两个“不可谈判”:不能在无人监督下用于杀人;不能用来监控美国公民。但他这下捅了马蜂窝。
2026年2月,特朗普亲自下场开撕:“美国绝不会允许一个激进左翼、‘觉醒’(Woke)的公司来决定我们伟大的军队如何作战!”他甚至威胁动用《国防生产法》,要么强迫Anthropic接单,要么把它踢出供应链。
这场撕逼暴露了一个残酷的现实:在国家机器面前,所谓的“科技向善”和“企业伦理”,脆弱得像一张纸。
Anthropic一怒之下把政府告上法庭。但更黑色幽默的是,就在双方吵架的同时,五角大楼被曝已经在对伊朗的空袭中偷偷用了Anthropic的工具。这像不像你的前任?嘴上说着“我们要分手”,身体却很诚实地继续花你的钱。
科技公司掌握着算力、模型和数据,军方掌握着枪杆子和预算。当这两者结合,“国家安全”四个字就成了通行一切的免死金牌。 至于模型是不是有偏见?会不会误杀?那是“技术迭代”的必要代价。
从冷战到现在:AI如何成为战争的“基础设施”?
别以为这是2026年才有的新鲜事。如果把依赖计算机、自动化的决策路径都算做“类AI”,那么这场人与机器的“甩锅”纷争,早就是蓄谋70年的“温水煮青蛙”游戏。
1950年代: 美国的SAGE防空系统,人类第一次把雷达交给计算机,虽然还是人工确认,但种子埋下了。
1991年海湾战争: DART系统帮美军算后勤,省了几十亿,证明了AI能省钱也能杀人。
2017年: “Maven项目”,美军用AI分析无人机视频,机器开始替人“看”视频。
2020年: 利比亚战场,Kargu-2无人机在没有人类指令下攻击目标,自主杀人武器正式登场。
2024-2026: 生成式AI入场,从“看图说话”进化到“决策建议”。
现在的趋势是什么?AI直接决策,实现全流程“去人化”。
在乌克兰战场,AI控制的无人机群已经能在电子干扰下自己找目标、自己撞过去。人类操作员?已经成为可有可无的“备份”,充其量算是个“橡皮图章”。
AI正在变成像电力、公路一样的战争基础设施。 你会因为路灯漏电电死人而审判发电厂吗?同理,未来当AI系统造成战争罪行,军方大概率会两手一摊:“是算法的黑箱,我们也不知道它为什么这么选。”
终极拷问:当暴力被“理性化”,谁来承担罪恶?
梳理这么多案例和逻辑,这里还想引用社会学家鲍曼在《现代性与大屠杀》中的观点:“大屠杀不仅是疯狂的产物,更是高度理性、官僚化和技术化的结果。”
这正是AI军事化最恐怖的地方。它把充满血腥、伦理挣扎的“杀人”,包装成了冷冰冰的“参数优化”。
不是“我们要炸死这群人”,而是“目标优先级排序为A”。
不是“误杀了平民”,而是“附带损伤在可接受阈值内”。
不是“战争罪行”,而是“系统故障”或“数据偏差”。
在这种话语体系下,责任被无限稀释了。
是数据标注员的错吗?他只是标了几张图。
是算法工程师的错吗?他只是写了几行代码。
是指挥官的错吗?他只是信任了系统的“99%置信度”。
是AI的错吗?它没有意识,也不用坐牢。
每个人都只负责了链条上的一小环,每个人都觉得自己无罪。于是,罪恶就在这“集体的平庸”中消失了。
别让“算法”成为逃避良知的借口
目前的国际法,还停留在管制“物理武器”的阶段。对于看不见、摸不着的代码,对于每秒运算亿万次的黑箱,几乎束手无策。
2026年的慕尼黑安全会议上,各国都在谈“AI军备竞赛”,却没人能拿出一套有效的“AI军控条约”。技术跑得太快,把人类的道德甩在了身后。
如果有一天,一枚由AI自主决定发射的导弹摧毁了一所医院,我们希望听到的不是“系统出现不可避免的错误”,而是某个具体的人类站出来说:“是我下令的,我负责。”
机器不应该拥有生杀大权,拥有生杀大权的人类,更不应该躲在机器后面。
互动话题:
如果未来战争完全由AI决策,且能减少90%的己方士兵伤亡,但会增加10%的平民误杀率,你支持使用这种技术吗?评论区聊聊你的看法。
热门跟贴