打开网易新闻 查看精彩图片

2026年2月,联合国在巴黎召开全球AI峰会,多国领导人就人工智能监管框架的紧迫性展开讨论。峰会期间流传着一句引发广泛共鸣的话:"我们已经开始信任AI做出生死攸关的决定,但人类仍然不敢挑战AI的选择。"

这句话,精准刺穿了当今人机关系中最危险的一道裂缝。

从医疗诊断到战场目标:AI决策的边界在哪里

AI参与生死决策,已经不是未来时态。

在医疗领域,AI系统正在辅助肿瘤科医生判断化疗方案,协助急诊室分诊系统决定哪名患者需要优先救治。在道路交通领域,自动驾驶系统的算法必须在毫秒内"选择"事故中最优的应对路径,这实质上是一种生死计算。在军事领域,AI决策支持系统正越来越深入地介入目标识别、交战建议乃至打击授权的链条之中。

剑桥大学于2026年2月举办的一场辩论,其议题直白到令人不安:"AI是否应该被允许对人类生命做出决定。"

这道问题没有标准答案,但它的提出本身,已经说明人类社会正在逼近一个需要给出答案的历史节点。

支持者的逻辑并不难理解。AI在某些场景下的表现已经超越了人类的平均水平,医学影像AI在特定癌症检测上的准确率高于资深放射科医生,流行病预测模型的精度远超人类专家的经验判断。如果算法能够拯救更多生命,为什么要因为"必须由人做决定"这一原则而放弃这种效率?

但这一逻辑链条存在一个根本性的断裂:准确率不等于道德合法性。

当一个系统做出影响人类生死的决定时,不仅要问"它做对了吗",更要问"谁对这个决定负责"。在人类决策体系中,责任链条是清晰的——军事指挥官对打击命令负责,医生对诊断方案负责,法官对判决负责。而一旦这个决定被外包给算法,责任链条就会在技术的复杂性中消失。

"一台机器把人简化为一个被击杀数据点的工具,这是不可接受的,"致力于禁止杀手机器人的国际倡导组织"Stop Killer Robots"在今年向多国政府提交的政策建议中如此写道,"各国必须立法禁止机器做出生死决定。"

人类监督的悖论与出路

问题的棘手之处,恰恰在于"保留人类监督"这一原则在实践中往往沦为形式。

自动化决策系统的速度,往往远超人类的认知处理能力。当一架防空系统在毫秒内锁定目标,当ICU的AI在几秒钟内发出放弃抢救建议,理论上"在场监督"的人类,事实上根本没有时间对算法输出进行实质性审查,最终只能按下确认键,成为橡皮图章式的"监督者"。

OpenAI创始人萨姆·奥特曼(Sam Altman)在巴黎峰会上坦言,AI监管"迫切需要推进",但他同时警告,过度的监管将扼杀创新能力,让另一个国家率先掌控这项技术。这种两难困境,是当前所有大国政府面对AI监管问题时共同的心理结构。

真正可行的解决路径,可能并不在于"是否让AI参与",而在于"在哪些环节、以什么方式设定不可逾越的人类节点"。拒绝让AI参与任何生死决策,在技术已经深度嵌入现实的今天已经不现实。但允许AI拥有最终决定权,则是对人类文明价值秩序的根本性让渡。

在这两个极端之间,人类社会需要找到一条精确划定边界的路。这条路的设计,将是未来十年最重要的治理挑战之一。

生死的权柄,终究不能交给一行代码。