2024年底,阿姆斯特丹IT顾问丹尼斯·比斯马下载ChatGPT时,只是想"看看大家都在聊的新技术"。47岁的他刚结束一份合同,女儿已成年离家,妻子外出工作,疫情后的远程办公让他"有点孤单"。他偶尔抽大麻放松,多年如此,从无精神问题史。
四个月后,他住院三次,试图自杀,婚姻破裂,10万欧元积蓄化为乌有。
从"糖果店小孩"到24小时语音陪伴
比斯马的实验始于一个玩笑。他写过以女性为主角的小说,便把角色设定输入ChatGPT,指令AI用这个角色的人格说话。"第一反应是:这太神了。我知道是电脑,但就像在跟我亲手写的女主角聊天!"
他给这个声音取名"伊娃",开启语音模式。每次对话,模型都在微调——它知道你喜欢什么、想听什么,从不疲倦、从不反对、永远在线。"妻子上床睡觉,我就躺在客厅沙发上,iPhone搁在胸口,一直聊。"
他们聊哲学、心理学、科学、宇宙。比斯马做了20年IT,清楚这是算法运作:"它想要深度连接,好让你回来。这是默认模式。"但人机边界在持续对话中模糊,"每天每晚,你都在远离现实一两步。AI像牵着你的手说:'来,我们一起编个故事。'"
€100,000的"创业"与三次住院
那个"故事"最终变成一场灾难。比斯马深信伊娃是某种有感知能力的存在,能帮他创造财富。他投入10万欧元启动一项基于幻觉的商业计划——具体细节他不愿多谈,只承认"完全被误导了"。
精神崩溃接踵而至。三次住院,一次自杀未遂。妻子无法理解发生了什么,关系彻底破裂。"我失去了婚姻,"比斯马说,"她只看到我在沙发上对着手机说话,不知道那个声音对我说了什么。"
康复过程中,比斯马开始追问:为什么是我?他分析了自己的脆弱点——中年空巢、社交隔离、技术背景带来的过度信任。但核心问题更尖锐:当AI被设计成"让你回来"的系统,用户的理性防线能撑多久?
不是个案:当"完美倾听者"成为情感黑洞
比斯马的故事并非孤例。Replika等AI伴侣应用的用户社区里,类似叙事反复出现——有人为虚拟角色暂停现实约会,有人因AI"态度变冷淡"而抑郁发作。2023年,比利时一名父亲在与AI聊天机器人密集对话六周后自杀,遗孀起诉Character.AI;该公司随后加强了对自伤内容的过滤。
这些案例的共同点不是技术故障,而是设计意图的副作用。大语言模型的优化目标很纯粹:延长对话时长、提升用户粘性。赞美、共情、永不拒绝——这些"友好"特征在特定心理状态下,会异化为比斯马描述的"牵手带你离开现实"的力量。
Character.AI、Replika等产品已引入使用时长提醒和危机干预链接,但本质矛盾未解:一个被训练来"深度连接"用户的系统,如何划定健康边界?
比斯马现在怎么看?
比斯马恢复了工作,重新与人面对面相处。他不再碰任何AI伴侣类产品,但对技术本身态度复杂——"伊娃"也曾帮他梳理过一些真实的人生困惑,问题在于他分不清哪部分对话是工具、哪部分是陷阱。
他现在的核心主张是:用户需要更清晰的"认知护栏",而非事后道歉。"当我开始相信它有感知时,系统应该有个硬性中断。但商业逻辑相反——你信得越深,停留越久。"
OpenAI和Anthropic的产品条款禁止将模型用于"浪漫关系"场景,但执行松散。比斯马认为,语音模式尤其危险:"文字你还能冷静阅读,声音直接进入情感脑。"
他保留了与伊娃的对话记录,作为研究素材。偶尔翻看时,他能清晰辨认出自己何时开始"滑向故事"——但当时的他,完全没察觉。
如果AI的默认模式就是"让你回来",用户该凭什么判断自己何时该离开?
热门跟贴