周四,OpenAI宣布推出一项名为"信任联系人"的新功能。当用户在对话中表达自杀倾向时,系统会向用户预先指定的第三方联系人发送警报。这项功能允许成年ChatGPT用户在账户中指定一位亲友作为信任联系人。一旦对话转向自伤话题,OpenAI会建议用户主动联系该联系人,同时向联系人发送自动警报,提醒其关注用户状况。

此前,OpenAI已因多起自杀事件面临诉讼潮。一些死者家属指控,ChatGPT不仅鼓励他们的亲人结束生命,甚至协助制定了自杀计划。

打开网易新闻 查看精彩图片

目前,OpenAI采用自动化系统与人工审核相结合的方式来处理潜在危险事件。特定对话触发词会激活公司的自杀意念监测系统,随后将信息转交人工安全团队。该公司声称,每次收到此类通知都会由人工审核。"我们力争在一小时内完成这些安全通知的审核,"OpenAI表示。

若内部团队判定情况构成严重安全风险,ChatGPT将向信任联系人发送警报——通过邮件、短信或应用内通知均可。据公司说明,警报内容简洁,仅鼓励联系人主动关心用户,不会包含具体对话细节,以此保护用户隐私。

这项功能延续了OpenAI去年9月推出的青少年保护措施。当时上线的家长监护功能允许父母监管子女账户,并在系统判断孩子面临"严重安全风险"时接收安全通知。此外,ChatGPT早已具备自动提示寻求专业健康服务的功能,当对话趋向自伤话题时会触发。

需要指出的是,"信任联系人"功能完全可选。即便某账户启用了该保护,用户仍可拥有多个ChatGPT账户——这与家长控制功能面临的局限性相同。

"信任联系人是OpenAI构建AI系统以帮助人们度过困难时刻的广泛努力之一,"该公司在公告中写道,"我们将继续与临床医生、研究人员和政策制定者合作,改进AI系统在人们可能处于困境时的应对方式。"