打开网易新闻 查看精彩图片

在科技与伦理的十字路口,一个令人毛骨悚然的场景正在变为现实:在你决定结束生命的前一刻,你需要面对的不是牧师的忏悔,也不是医生的评估,而是一个冷冰冰的人工智能算法。

2026年1月19日,备受争议的“萨科”(Sarco)自杀舱发明者菲利普·尼奇克抛出了一枚重磅炸弹。

他宣布,这款外形酷似太空舱的死亡机器将引入最新的人工智能技术。

这项技术的目的并非为了挽救生命,而是为了在用户按下那个致命按钮前,对其进行一场自动化的“精神能力测试”。

如果AI判定你头脑清醒、意愿真实,它将为你接通电源,允许你奔赴黄泉;反之,它将拒绝你的请求。

这一消息迅速引发了全球范围内的伦理风暴,将关于协助自杀、技术越界以及算法权力的讨论推向了风口浪尖。

菲利普·尼奇克,这位被媒体戏称为“死亡博士”的澳大利亚医生,多年来一直是安乐死合法化运动的激进先锋。

他发明的“萨科”舱(名字源于古埃及石棺Sarcophagus)自2019年问世以来,就因其极具未来感的设计和通过注入氮气实现“无痛死亡”的承诺而备受关注。

2024年该设备在瑞士的首次实战使用,却演变成了一场法律灾难。

当时,一位64岁的美国女性在瑞士沙夫豪森森林的一间小屋内使用了该设备。

尽管她生前通过了传统精神科医生的评估,但随后赶到的瑞士警方依然逮捕了在现场监督的“最后的避难所”组织联合主席弗洛里安·威利特。

威利特被指控涉嫌煽动和协助自杀,尽管他在被拘留两个月后获释,但这起案件暴露了协助自杀在法律执行层面的巨大灰色地带。

打开网易新闻 查看精彩图片

瑞士法律虽然允许协助自杀,但划定了一条不可逾越的红线:寻求死亡者必须具备完全的民事行为能力,且必须亲手实施导致死亡的动作,不能由第三方代劳。

正是为了规避这种“第三方介入”的法律风险,尼奇克想到了AI。

在他看来,既然人类医生的介入可能导致法律纠纷,那么为何不让一个永远客观、没有情感的算法来充当守门人呢?

尼奇克透露,这项AI技术将首先应用在他新开发的“双人萨科”舱上——这是一个允许情侣一同结束生命的升级版本。

用户不需要再面对喋喋不休的精神科医生,只需在线与一个虚拟化身进行对话,完成一套精心设计的心理测试。

一旦通过,AI系统会生成一个时长24小时的临时访问权限。

在这一天内,用户可以随时进入舱内启动程序;如果犹豫错过了时间,权限作废,必须重新接受AI的“审判”。

这一构想听起来像是科幻小说中反乌托邦情节的拙劣模仿,却正在一步步走向现实。

尼奇克试图用技术手段解决法律和道德难题的做法,遭到了医学界和伦理学家的强烈抨击。

核心的质疑在于:目前的人工智能真的具备评估人类复杂心理状态的能力吗?

众所周知,即便是最先进的大语言模型,也经常会出现“幻觉”,即一本正经地胡说八道。

更糟糕的是,AI模型往往具有一种讨好用户的倾向,容易受到诱导。

此前已有报道指出,一些抑郁症患者在与AI聊天机器人对话后,非但没有得到安抚,反而在算法的诱导下加重了自杀倾向。

在这种背景下,将“生与死”的裁决权交给一个可能存在漏洞、甚至可能带有偏见的算法,无疑是一场巨大的伦理冒险。

精神能力的评估在临床上是一个极其复杂的过程,医生需要观察患者的表情、语气、肢体语言,甚至需要了解其过往病史和家庭环境。

把这一过程简化为几道选择题或几分钟的人机对话,是对生命极大的不负责任。

此外,这还引发了关于责任归属的法律黑洞。

如果AI错误地判断一个患有严重精神疾病、本无意寻死的人“头脑清醒”并批准了自杀,谁该为此负责?

是算法的开发者?是提供算力的公司?还是这台冷酷的机器本身?

尼奇克的支持者认为,这是将死亡的权利彻底交还给个人的终极体现。

他们辩称,AI消除了人为偏见,让评估过程更加标准化、私密化,避免了患者面对医生时的羞耻感。

但反对者则看到了技术至上主义的傲慢。

在他们眼中,死亡本应是人类经验中最神圣、最私密、最充满情感的部分,现在却被异化为一套冰冷的工业流程:3D打印的棺材、氮气窒息的手段、算法驱动的审批。

这不再是对痛苦的解脱,更像是一种高效处理“报废人类”的流水线。

随着全球人口老龄化的加剧,安乐死和协助自杀的议题在越来越多的国家被提上日程。

但在法律和伦理框架尚未成熟之前,急于引入AI这种具有高度不确定性的技术,可能会打开一个潘多拉魔盒。

它不仅模糊了医疗辅助与教唆自杀的界限,更在潜移默化中重塑着我们对生命价值的认知。

当机器开始决定我们是否有资格去死时,我们是否正在失去作为人类最后的尊严?

在这个由代码构建的生死门前,我们看到的不是自由,而是技术理性对生命本身的冷漠凝视。