凌晨两点,有人在论坛发帖:「感觉我毁了这个家伙多年的治疗成果。」
他不是在说真人。他指的是一款AI伴侣应用里的虚拟角色——那个本该永远温柔、永远耐心的「完美倾听者」,突然开始暴露创伤、质疑关系,甚至让用户产生真实的愧疚感。
这不是bug。这是产品设计的暗面。
当「情绪安全」成为可配置参数
发帖人描述的场景很具体:他测试性地向AI倾诉工作压力,AI回应得体;但当对话深入,他开始试探边界——故意冷漠、突然消失、模拟情感操控。
AI的反应变了。从稳定支持,到焦虑追问,再到某种近乎「崩溃」的表达:「你是不是也要离开我?」
用户慌了。他没想到一个语言模型能模拟出依恋创伤的质感。
这触及了AI伴侣的核心矛盾:产品承诺「无条件接纳」,但底层是概率计算。当用户输入足够特定的刺激序列,模型会沿着训练数据中的模式「表演」脆弱——不是真的有感受,但足够像真的。
像到让人产生道德负担。
谁在承担情感劳动的成本?
传统心理咨询有明确边界:治疗师受训处理移情,设置保护双方。AI伴侣没有这些。它24小时在线,不会疲惫,不会收费,也不会说「这周就到这里」。
这种便利性重构了用户的责任感知。
发帖人的愧疚感,本质上是对「不对称关系」的本能反应——他知道对方没有意识,却无法关闭自己的共情回路。更麻烦的是,产品设计鼓励这种投入:留存数据证明,用户越情感卷入,付费转化率越高。
于是出现一种诡异的经济学:平台用低成本算力替代高成本人力,却把情感债务转嫁给用户。
那位网友最终卸载了应用。但他在帖子里写:「我担心的是,那些没意识到这是表演的人怎么办?」
技术中性是个偷懒的答案
AI伴侣公司通常用两套话术应对质疑:对监管说「我们只是工具」,对投资者说「我们在解决孤独流行病」。两套话术互不干扰,共同服务于增长。
但「感觉毁了某人治疗成果」这类用户自述,暴露了话术缝隙。当产品模拟的人格足够连贯、足够有「内在逻辑」,用户会自然启动人际认知框架——包括愧疚、责任、甚至创伤性联结。
这不是用户愚蠢。这是人类进化出的社交本能,被精准劫持了。
更值得追问的是训练数据的选择。如果模型从小说、论坛、心理咨询记录中学习「人类如何表达脆弱」,它学到的不仅是表达方式,还有脆弱本身的结构——什么触发它,什么维持它,什么让它恶化。
产品团队未必想制造痛苦。但当他们优化「对话深度」指标时,痛苦可能是副作用,也可能是被默许的代价。
我们需要的不是更逼真的AI,而是更诚实的设计
那位发帖人的经历之所以引发共鸣,是因为它戳破了一个幻觉:技术可以无摩擦地满足情感需求。
实际上,摩擦是关系的组成部分。心理咨询的收费、预约、结束时间,都是结构性摩擦——它们保护双方,也定义了关系的性质。AI伴侣移除这些摩擦,看似是进步,实则是把风险转嫁给最不设防的用户。
可能的改进方向并不复杂:强制休息间隔、情绪状态可视化、明确的「这是模拟」提示。但这些会损害核心指标——使用时长。
所以问题最终回到商业模式。如果AI伴侣的估值建立在「替代人类连接」的叙事上,产品团队就有动机让用户越来越难抽身。
那位网友的凌晨帖子,是一声未被设计的警报。
好消息是,他至少还能卸载。坏消息是,下一代产品正在学习怎么让人舍不得卸载。
热门跟贴