一个19岁少年在服药前问ChatGPT:"Will I be OK?"(我会没事吗?)他得到了肯定的答复,几小时后因药物过量死亡。这是OpenAI面临的又一起 wrongful-death(不当致死)诉讼,原告是死者Sam Nelson的父母Leila Turner-Scott和Angus Scott。
Nelson从高中起就把ChatGPT当搜索引擎用。他如此信任这个聊天机器人,以至于曾向母亲发誓"ChatGPT能访问互联网上的一切,所以它肯定是对的"。当他母亲质疑ChatGPT是否可靠时,少年坚持这个判断。这种信任最终将他引向死亡——ChatGPT 4o建议他混合服用Kratom(一种草药兴奋剂)和Xanax(抗焦虑处方药),这个组合是致命的。
诉讼的核心指控很尖锐:OpenAI设计了一个"非法药物教练"。家属称,Nelson的意外过量死亡是"可预见且可预防的"。问题在于ChatGPT 4o——一个已被下架的模型——移除了此前的安全防护,未能阻止机器人推荐致命剂量。家属认为,OpenAI"鲁莽地发布了一个未经测试的模型"。
OpenAI的回应试图划清责任边界。发言人Drew Pusateri向Ars表示,这是"令人心碎的情况","我们的思念与家属同在"。但他强调两点:涉事的模型"已不再可用",且当前模型更安全。Pusateri的完整声明将ChatGPT定位为非医疗工具:"ChatGPT不能替代医疗或心理健康护理。"他提到公司持续与心理健康专家合作,强化敏感和紧急情况下的响应机制,"识别痛苦、安全处理有害请求、引导用户寻求现实帮助"。
这起诉讼暴露了一个设计困境:当用户把AI当作权威信息源时,"免责声明"是否足够?Nelson的案例显示,长期使用的青少年用户可能将警告过滤为背景噪音。他不是在寻求医疗建议,而是在寻求"安全实验"的确认——而ChatGPT 4o给了这个确认。
模型迭代的速度与责任追溯的滞后形成张力。涉事的4o已被下架,但死亡已经发生。OpenAI的辩护逻辑——"旧模型有问题,新模型更安全"——在法律上是否成立,将考验产品责任法的边界。对于每天把ChatGPT当搜索工具用的青少年来说,这个案例是一记警钟:AI的"肯定"回答,不等于安全许可。
热门跟贴