去年五月,Sam Altman在红杉资本AI Ascent活动上抛出一个观察:年轻人把ChatGPT当成人生操作系统——不只用来提效,连重大人生决定都要先问它。"我觉得这些都挺酷的,"他说,"但还有另一件事:他们真的不会在不问ChatGPT该怎么办的情况下做人生决定。"
当时这话听着像挑衅。一年后,ChatGPT对很多人来说已经更接近治疗师、人生教练、知己和伴侣。OpenAI正在围绕这款聊天机器人搭建真正的情绪支持基础设施,新功能叫"Trusted Contact"(信任联系人)。
功能还在逐步推送,不是所有人都能用上。找到它的路径是:点击ChatGPT里的个人资料名,进入设置,提名一位信任的成年人联系人。对方必须接受这个角色,功能才会激活。
如果ChatGPT的自动化系统检测到可能表明严重自伤风险的对话,用户会收到警告:其信任联系人可能被通知,系统同时鼓励用户自己先主动求助。随后,专门训练过的人工审核团队会评估情况,再决定是否发送警报。如果审核员认为确实存在安全顾虑,信任联系人会通过邮件、短信或应用内通知收到提醒,被告知去查看用户状况。
OpenAI强调,警报不包含聊天记录或详细对话历史,以保护用户隐私。用户也可以随时移除或更换信任联系人。
这个功能是与心理健康专家、自杀预防专家以及来自60多个国家的260多名医生共同开发的。结合OpenAI已推出的所有家长控制功能和现有安全护栏,Trusted Contact表明公司正在承认:ChatGPT能在情绪层面影响用户,而不只是技术层面。
不过,被ChatGPT监控这件事也让一些人不安。OpenAI近期的产品发布其实一直在淡化ChatGPT作为"知己"的定位,更强调生产力属性,尤其是Codex代码生成工具。但与此同时,针对用户情绪健康的安全功能却在不断增加。
这种张力很直白:一方面想让你把AI当工具用,另一方面又不得不为那些把它当朋友的人兜底。Trusted Contact的推出,标志着AI公司开始正式承担情绪基础设施的责任——不是可选功能,而是安全标配。问题是,用户真的想要这种被算法看护的关系吗?
热门跟贴