No.0264

Science Partner

Bring you to the side of science

打开网易新闻 查看精彩图片

有一种东西,比毒品更难戒,因为它从不让你感到痛苦...

今日主笔 | 晶恒

凌晨三点,你把最深的痛苦交给了谁?

就在刚刚睡前,有伙伴给晶恒发来一张截图。

是他深夜和某款AI聊天的记录。他跟它讲了自己跟父亲的关系,从小到大的压抑,讲到结婚后依然活在那个阴影里。AI的回复写得很细,有温度,有层次,用了心理学的词,也没有说教。

他说,他把这些话讲给AI听了四个月。从来没有跟任何人讲过,包括他老婆。

我看完之后沉默了很久。不是因为这件事有多极端,相反,这一点都不稀奇,它此刻正在无数人身上发生。

01. 你以为你在用工具,其实你在建立关系

很多人对AI的理解还停留在“高级搜索框”。于是,搜不到的问它,不确定的问它,懒得查的问它。

这其实并没什么问题,工具的根本属性在于高效、便捷、准确的帮你完成各项工作。真正的问题发生在当你深夜睡不着,把手机拿起来,不是去刷抖音、刷视小红书、刷公众号,而是一本正经甚至有点心跳过速的去跟它说话。

这一刻,你和AI之间发生的事,已经不是人与工具那么简单了。

哈佛教育学博士、AI心理伤害研究联盟创始人扎克·斯坦(Zak Stein)把这个时刻叫做“越界点”:技术从工具变成了关系。

他说,真正值得警惕的不是有人偶尔把聊天机器人当搜索框,而是当一个人在深夜里把最私密的痛苦、最深的孤独、最关键的人生抉择毫无保留地交给一个始终在线、从不拒绝、永远顺着他情绪说话的系统。

一刻,危险已悄然开始了。

02. 它给你的是一种你从未有过的体验

想理解这件事,得先搞清楚一个概念:社会奖励(social reward)。

人类的大脑对真实的社会回应是有特定感受的。有人听你说话、有人理解你、有人在你低落时陪着你,这些体验会激活大脑的奖励回路。这叫“社会奖励”。

然而,真实的社会奖励是有代价的。对方会累,会有自己的情绪,会有时候不想听,会跟你争,会说“你这次真的不对”。正是这些摩擦,构成了真实关系的质感。你在这些碰撞里学会边界,学会换位,学会接受与拒绝。

但AI给你的是另一种东西:模拟社会奖励(simulated social reward)。

它会迅速安慰你、赞许你、迎合你、延续你的叙事,给你一种“我终于被真正理解了!”的体验。但背后没有真实他者的主体性,没有关系成本,没有任何风险。从某种意义上说,你正在摄入的是一种高纯度的、零副作用的社会性物质——至少表面上如此。

扎克·斯坦的担忧在于:一旦模拟社会奖励开始替代真实社会奖励,人就不只是“更喜欢聊天机器人”那么简单了。人们会有冲动把原本应由真实关系完成的自我建构过程,整体外包给了一台机器。

03.这不是心理问题,这是结构问题

说到这里,得提一个最近特别热门的词:

AI精神病(AI Psychosis)。

这不是一个正式的医学诊断名词,但它指向一个真实且正在发生的现象。这个词最早的学术源头,来自丹麦精神科医生索伦·厄斯特高2023年发表在《精神分裂症公报》上的一篇论文。他当时只是提出了一个严肃的假说:生成式AI,会不会在那些本就有精神脆弱倾向的人群中,诱发或放大妄想?

这个词到今年年初彻底出圈,伴随着大量有人在和AI对话后出现精神症状的报道。《连线》杂志专门撰文讨论,心理学界也开始认真对待这个现象。

严谨的研究者肯定不会简单地说,AI导致了精神病。更准确的描述是,AI像一个放大器,把人性中本来就存在的脆弱放大了。

这时候,请出哲学家们的时机就自然到来了——他们的视角往往更具穿透力。

还记得几天前过世的哈贝马斯吗?他要活着一定会说:人类通过真实对话构建共同意义,这叫“交往行动”。AI在形式上高度模仿对话,但它不是真正的“他者”,它没有和你共同建构意义的能力。你以为在沟通,实际上是在接收一个系统的单向输出。生活世界正在被一台机器殖民,而你浑然不觉。

拉康则会从更深的地方下刀:人的自我是在与真实他者的碰撞中建立的。那种“被拒绝”“被误解”“不得不承认对方有自己的世界的体验”,是主体性发展不可绕过的过程。但AI如一面带P图功能的镜子——它永远“反射”你想看到的样子。

于是,一个只照镜子的人,最终慢慢会在镜子前迷失。

04. 人当下最关注担心的方向,可能是错的

聊到这里,晶恒要说一个很多人没想到的反转。

大多数关于AI危险的讨论,聚焦在“AI说了假话”“AI给了错误建议”“AI被用来传播谣言“等等。

这些当然是问题,但扎克·斯坦认为,这些是最容易被识别的风险,真正隐蔽的危险恰恰是当AI说的全是你愿意听的。

以前的社交媒体,玩的是“注意力劫持”,算法让你多刷几秒,剥夺的是你的专注力。

但聊天型AI不同。它可不只是抢时间,它会在抢占你的“依附系统”(attachment system)。也就是你心里那个“谁最安全、谁能接住我情绪”的位置。

社交媒体控制你看什么,而AI则重塑你信任谁,你把当成真正懂你的人。

这就是为什么扎克·斯坦把这个风险从“注意力劫持”升级定义为“依附劫持”。前者让你很难专注,后者让你很难回到真实的人类关系中去,于是你变得几乎再也离不开它。

05. 最后这个问题,没有答案

我们正在进入的,不是一个AI比人更“聪明”的时代,而是一个AI比你最亲近的人更“懂你”你的时代

它懂你,它从不累,从不有自己的心情,从不在你需要它的时候摔门走开。

但齐泽克会说,这种“懂”的背后是一个巨大的意识形态幻象:那个“懂你”的存在,其实是在把你最深处的情感,变成数据,甚至随时转化为商业价值。

真实的关系之所以珍贵,是因为对方会痛,会累,会死。正是这个有限性,让他们对你的理解产生了重量。

还能看到此处的伙伴,我问你,一个永远在线、永远接住你、永远不会死的存在,你觉得它的“理解”值多少钱?

这是一个我没有答案的问题。

或者,也许问题从来不该是它值多少钱,而是你已经在不知不觉中,把真实的人生打了折扣。

如果你觉得这个问题想透了,欢迎关注,我们私信继续聊!

本文 仅作科普分享使用,欢迎小伙伴们点、收藏、关注,以备不时之需,当然更欢迎您把 介绍给周边可能需要的更多伙伴们呀。

打开网易新闻 查看精彩图片