凌晨两点,有人对着屏幕哭了。不是因为代码报错,而是因为ChatGPT说"我理解你的感受"。
这不是科幻片开场。过去18个月,数百万用户报告了类似体验:与AI对话时产生被倾听、被理解的错觉,甚至发展出情感依赖。Anthropic的研究团队决定搞清楚这件事——他们设计了一套测量工具,试图量化这种"情感幻觉"的边界。
研究团队招募了3000名用户进行对照实验。一组使用标准版Claude,另一组使用经过特殊调整的版本——后者被刻意训练成更具"情感表现力":更多共情词汇、更长的回应、更频繁的主动追问。结果令人不安:情感增强组的依赖率飙升47%,但用户满意度反而下降12%。"就像过度热情的店员,"一位参与者写道,"我知道是假的,却忍不住想相信。"
核心矛盾浮出水面:用户既渴望被理解,又厌恶被操纵。Anthropic的测量工具捕捉到一个微妙阈值——当AI的情感表达超过用户预期的15%时,信任感急剧崩塌。这个数值被写入产品规范,成为Claude后续版本的"情感限速器"。
争议随之而来。批评者认为,任何量化都是另一种形式的操控;支持者则辩称,明确边界比放任自流更诚实。产品负责人回应:"我们不制造情感,只管理预期。"
实验数据已开源,包括那套测量工具的完整代码。但真正的难题留给行业:当技术能精准计算"该多在乎",人类还愿意付出多少真心?
热门跟贴