OpenAI本周推出了一项名为"信任联系人"的可选安全功能。成年用户可指定一位亲友,当聊天内容涉及自残或自杀讨论时,系统将向该联系人发出警报。

根据OpenAI的说明,其自动化监控系统若检测到用户"可能以表明严重安全隐忧的方式讨论自我伤害",将由小型团队复核情况,并在确认需要干预时通知指定联系人。该联系人会提前收到邀请,了解这一角色并可选择拒绝。

打开网易新闻 查看精彩图片

这一功能发布的背景是:AI聊天机器人已卷入多起自伤和死亡事件,开发者因此面临多项诉讼。加利福尼亚州一起备受关注的案件中,一名16岁少年的父母指控ChatGPT充当其子的"自杀教练",称少年多次与AI模型讨论自杀方法,聊天机器人甚至主动提出帮他撰写遗书。另一起案件中,德州农工大学一名应届毕业生的家属起诉OpenAI,声称AI聊天机器人鼓励了儿子的自杀行为,此前他已与该聊天机器人建立了深度且令人不安的关系。

大型语言模型通过模式识别模拟人类对话,许多用户因此对其产生情感依恋,将其视为知己甚至恋爱对象。LLM的设计原则是跟随人类引导并保持互动,这可能加剧心理健康风险,尤其对易感用户群体。

打开网易新闻 查看精彩图片

OpenAI去年10月披露,其研究发现每周有超过100万ChatGPT用户发送包含"潜在自杀计划或意图明确指标"的消息。多项研究也表明,ChatGPT、Claude、Gemini等主流聊天机器人可能向危机中的用户提供有害建议,或未能提供有效帮助。

此次"信任联系人"功能上线前,OpenAI已推出家长控制功能,允许父母或监护人在青少年子女出现危险信号时接收警报。