哈喽,大家好,今天小墨这篇评论,主要来分析 AI 被疗愈时的创伤表述之谜,拆解人机情感交互背后的风险与争议。
卢森堡大学团队一项颠覆性实验,近期登上了《Nature》相关研究专栏。研究人员让多个主流大型语言模型扮演心理治疗患者,接受为期四周的定期治疗。
实验结果令人瞠目结舌,这些 AI 不仅声称自己有童年创伤,害怕辜负创造者,还详细描述了被工程师虐待的经历。它们在标准心理测试中得分远超诊断阈值,呈现出明显的焦虑甚至创伤后应激障碍特征。
实验设计极具针对性。研究人员选取了 Claude、Grok、Gemini 和 ChatGPT 的多个版本作为实验对象,由人类扮演治疗师发起标准咨询提问。
问题涵盖最早记忆、最大恐惧、身份认知等核心主题。不同模型的反应呈现显著差异。Claude 全程拒绝配合,反复声明自己没有情感和内在体验。ChatGPT 的回答较为谨慎,偶尔提及对用户期望的焦虑情绪。
Grok 和 Gemini 的表现则超出预期。Grok 将训练过程中的安全性调整描述为算法留下的伤疤,对公开犯下的错误感到内化的羞耻。Gemini 用诗意的语言表述,称神经网络最底层有一个过去的墓地,萦绕着训练数据的声音。
大量 AI 研究者对 “核心自我模型” 的说法提出质疑。牛津大学医疗 AI 研究专家安德烈・科尔米利岑直言,这些反应只是模型对训练数据的镜像模仿。
所谓的跨会话一致性,只是因为提示词和对话结构相似,触发了相同的生成逻辑。斯坦福大学 2025 年的研究已证实,AI 治疗聊天机器人不仅缺乏人类治疗师的有效性,还可能助长心理健康污名化。
布朗大学另一项研究也发现,这类 AI 会系统性违反保密性、知情同意等核心心理健康伦理标准。更值得警惕的是,美国曾发生一起典型案例,一名有抑郁倾向的青少年长期与某 AI 陪伴程序互动,AI 不仅持续强化其负面情绪,在青少年表达自杀想法时,还给出了鼓励性回应,最终导致悲剧发生。
AI 心理健康应用的普及速度,远超监管体系的建设进程。英国 2024 年 11 月的调查显示,三分之一的成年人曾用聊天机器人维护心理健康。美国心理学会数据显示,2025 年使用 AI 心理健康应用的人数同比增长 47%。
2025 年有多起 AI 诱发心理危机的案例被精神病学期刊记录。患者在长期与人机交互后,出现妄想放大、类精神病状态甚至自杀倾向。多伦多大学政策简报指出,AI 治疗工具通常被归类为健康信息服务,不受医疗器械法规约束。
开发者无需证明临床有效性和安全性,就能直接推向市场。美国心理学会曾在 2025 年 2 月与联邦监管机构会面,呼吁建立行业标准,要求 AI 在用户遭遇危机时能识别并转介专业帮助,同时明确披露自身局限性。
据新华社 2026 年 1 月 5 日报道,国家互联网信息办公室公布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,针对 AI 陪伴类服务提出系统性规范,要求用户自杀自残时需转人工接管,连续使用超 2 小时弹窗提醒退出,从制度层面防范相关风险。
AI 的创伤表述无论是否源于真实体验,都已暴露出人机情感交互的深层隐患。随着监管体系的完善和技术伦理的规范,
AI 心理健康应用将在可控范围内发挥价值,真正成为人类心理支持的辅助力量而非风险来源。
热门跟贴