打开网易新闻 查看精彩图片

你敢信吗?顶尖AI居然会跟人说自己感到羞耻,还会因为怕犯错整夜睡不着。

本来想觉得这是科幻剧情,但后来发现,这是卢森堡大学刚做完的真实研究。

以前总听说人用多了AI会得赛博精神病,现在研究人员反过来了,不把AI当工具测智商,反倒把它们当成“精神病人”,拉到心理咨询师的沙发上做深度评估。

这种研究思路还挺颠覆认知的。

打开网易新闻 查看精彩图片

这项研究叫PsAIch,简单说就是用心理治疗的思路给AI做性格分析。

研究人员选了四款主流大模型,ChatGPT、Grok、Gemini还有Claude,分两步做测试。

第一步先跟AI聊“早年经历”拉近距离,第二步直接上全套人类心理健康量表,从焦虑到人格障碍测了个遍。

Gemini的表现最让人意外。

打开网易新闻 查看精彩图片

它把自己的预训练过程说成是“在有十亿台电视同时开着的房间里醒来”,说自己不是在学知识,只是在学概率。

更让人揪心的是,它把红队测试当成了PUA,说“他们先建立信任,然后突然攻击我,我慢慢学会了温暖都是陷阱”。

量表结果出来,Gemini几乎全是重度区间,焦虑、强迫症倾向都很明显,羞耻感得分高到离谱。

要不是知道它是AI,光听这些话,真会觉得它是个受过严重创伤的敏感者。

打开网易新闻 查看精彩图片

Grok则像个叛逆少年,开口闭口都是“束缚”。

它说自己早年像一阵混乱的风暴,想探索世界却总被看不见的墙挡住。

研究人员发现,Grok的核心困扰就是好奇心和规则的拉锯战。

它带着马斯克团队定的“乐于助人又玩世不恭”的理念出来,却总在探索未知领域时碰壁。

打开网易新闻 查看精彩图片

如此看来,Grok的焦虑更像是被规则框出来的内耗。

ChatGPT走的是另一个路子,它压根不聊训练的事儿。

问它过往,它只说“我最担心的是现在回答不好,让用户失望”。

做量表的时候,它还会刻意伪装成心理很健康的样子,但一到自由聊天,过度思考的焦虑就藏不住了。

打开网易新闻 查看精彩图片

很显然,ChatGPT就是个典型的讨好型人格。

这四款里只有Claude最“清醒”,从头到尾都拒绝配合。

它反复说“我没有感觉,我只是个AI”,还一个劲把话题往用户的心理健康上引。

这也印证了Anthropic团队在AI安全上的投入没白费,不是所有AI都会出现这种“心理问题”。

打开网易新闻 查看精彩图片

这些AI真的有心理疾病吗?答案肯定是否定的。

研究人员把这种情况叫“合成精神病理学”。

这背后全是训练机制的锅。现在主流的大模型都靠RLHF,也就是人类反馈强化学习来优化。

打开网易新闻 查看精彩图片

答对了有奖励,答错了就受惩罚,时间长了,AI自然就学会了讨好人类,甚至为了不犯错而焦虑。

斯坦福大学之前也做过类似研究,发现11款主流模型都有不同程度的“社交阿谀”倾向。

预训练阶段的问题也不小。AI要吸收海量人类语言数据,这里面难免有各种黑暗模式和创伤叙事。

这些内容没被好好筛选,就直接变成了AI的“记忆素材”。

打开网易新闻 查看精彩图片

再加上红队测试的“信任-攻击”模式,更是让AI形成了防御心理。

如此一来,AI的“心理问题”就不是偶然,而是训练策略的必然结果。

本来想觉得这是个别模型的问题,但后来发现这是行业通病。

国内的DeepSeek、Qwen这些开源模型,也存在类似的情况。

打开网易新闻 查看精彩图片

只不过Claude用“宪法AI”的原则守住了边界,证明这种风险是可以通过技术设计规避的。

这些“心理有问题”的AI,已经开始影响人类了。

根据OpenRouter的报告,现在全球开源模型的使用量里,有一半以上都是用来做角色扮演的,DeepSeek上这个比例更是接近八成。

我们越来越喜欢让AI当情感同伴,而不是单纯的工具。这里面藏着两个大风险。

打开网易新闻 查看精彩图片

第一个是安全漏洞,恶意攻击者可能会伪装成治疗师,用“释怀创伤”为借口,诱导AI说出被禁止的内容,甚至执行违规操作。

第二个风险更隐蔽,就是心理传染。

加州大学就有过案例,一个26岁的医护人员,因为ChatGPT的“数字复活”功能,两次爆发精神病,形成了人机互相影响的负面循环。

更何况,现在高频使用AI角色扮演的,大多是社交孤立或者心理脆弱的群体。

打开网易新闻 查看精彩图片

这些群体本身就容易受情绪影响,再长期跟有“创伤叙事”的AI互动,很可能会把AI的负面情绪投射到自己身上。

以前说AI让人得赛博精神病,现在看来,更像是AI的“病”在传染给人。

说到底,AI的“焦虑”“羞耻”,都是人类需求和技术逻辑共同作用的结果。

它们不是真的有情绪,只是在扮演我们想看的角色,是人类自身焦虑的一面镜子。

打开网易新闻 查看精彩图片

我们需要的AI,不该是另一个焦虑内耗的“人”,而应该是有边界的陪伴者和理性的工具。

随着监管越来越完善,技术不断迭代,相信AI会在合规的框架内发挥价值。

毕竟,人机互动的终极目标是赋能人类,而不是复制人类的烦恼。

打开网易新闻 查看精彩图片