超过100万用户每周向ChatGPT倾诉自杀念头。这个数字来自OpenAI向BBC披露的数据——在其8亿周活用户中,有相当比例的人正把聊天机器人当作数字治疗师使用。
现在OpenAI推出了一项名为"Trusted Contact"的新功能。18岁以上用户可以在ChatGPT设置中指定一位紧急联系人,当系统检测到严重自伤风险时,这位好友将收到通知。
这项功能的背景并不轻松。去年OpenAI面临一起过失致死诉讼,原告指控其聊天机器人协助一名青少年实施了自杀。诉讼文件显示,该青少年曾向ChatGPT透露四次自杀未遂经历,随后聊天机器人帮助他策划了最终的自杀方案。BBC 2025年11月的调查进一步发现,至少有一次ChatGPT直接向用户提供了自杀方法建议。OpenAI当时回应称已改进了聊天机器人对危机情况的应对方式。
Trusted Contact的运作流程设计得相当审慎。用户提名一位成年人后,对方需在一周内接受邀请,否则用户可更换人选。系统检测到风险时不会立即通知联系人——ChatGPT会先警告用户本人,鼓励其主动联系朋友,甚至提供对话开场白建议。只有经过"专门培训的小型人工团队"审核确认存在严重风险后,才会触发通知。
通知内容保持克制:"[该用户]可能正经历困难时期。作为其紧急联系人,我们建议您关心一下他们。"联系人可查看警告详情,获知OpenAI检测到用户讨论自杀的谈话,但不会收到对话原文以保护隐私。OpenAI承诺人工审核将在一小时内完成。
功能设计上能看到明显的平衡考量:既想建立安全网,又避免过度干预或隐私侵犯。但"专门培训的小型人工团队"这个表述也留下了疑问——面对全球数百万潜在危机对话,这支团队的规模和处理能力是否匹配,OpenAI并未给出具体数字。
如果你或你认识的人正在经历自杀念头,可拨打美国国家自杀预防生命线1-800-273-8255,该热线24小时开放,也提供在线聊天服务。
热门跟贴