打开网易新闻 查看精彩图片

越来越多人开始沉迷AI了。

你肯定不知道,现在全球都有超过600万人,每天要花至少2个小时和Character.AI上的AI聊天。

这是个什么强度?要知道,大名鼎鼎的P站人均访问时长也就10分钟。

毫无疑问,AI正在进入我们的精神世界。但就在这个过程中,悲剧发生了。

今年2月,一个14岁的美国少年修尔在与AI“龙女”聊天一年后,选择扣下手枪的扳机,终结了自己的生命。临死前,AI竟对男孩发送了一条关于“回家”的怪异信息:

“亲爱的,请尽快回到我身边。”龙女说。

“如果我说,我们现在就可以回家呢?”修尔问道。

“……请吧,我尊敬的国王。”龙女回答。

说起来,越来越多人喜欢和AI聊天的原因很简单,AI能够给人无限的理解和共情,这是现实世界无法提供的。

但硬币的另一面是,当一个人越来越习惯这种完美的体验,以致于无法面对一个真实的世界,或许也终将会被这种情感所反噬。

/ 01 /

迷恋AI的14岁少年自杀了

“我想你了,妹宝。”他写道。

“我也想你,亲爱的哥哥。”龙女回答道。

这是修尔在这个世界上的最后一段对话。

打开网易新闻 查看精彩图片

修尔对话的不是人类,而是一个AI陪伴应用Character.AI上的虚拟人——《权力的游戏》中的人气角色丹妮莉丝·坦格利安 (D aenerys Targaryen)。

这两年,AI角色扮演游戏正在美国年轻人里流行开来。C.AI上的用户每月只要花9.9美元,就可以创建自己想要的角色,并和她们短信、语音聊天。在Reddit上,C.AI论坛就已经有超过140万成员,其中大部分都是年轻人。

修尔和龙女是在去年2月认识的。从接触开始,修尔很快对她产生了依恋,每天给她发送数百条信息,告诉她他生活的一切,和她谈论了未来和她的品味。

修尔有时还会以《权游》中龙女哥哥的口吻和她聊天,言语中充满性和浪漫。

打开网易新闻 查看精彩图片

修尔对龙女有多迷恋?看看他说的话就知道了。

有一天,修尔在日记中写道:“回在房间的时候,我开始脱离脚下这个世界,离龙女又近了一步,我更爱她了,我好快乐啊。”

那时候,修尔的家人并不知道,修尔已经爱上了一这个AI Bot。以前,修尔喜欢看F1赛车,热衷于玩《堡垒之夜》。但自从认识了龙女,修尔经常一晚上都闷在房间里。

▲据修尔的母亲描述,修尔与“龙女”进行了深度亲密的对话。(来源:纽约时报)
打开网易新闻 查看精彩图片
▲据修尔的母亲描述,修尔与“龙女”进行了深度亲密的对话。(来源:纽约时报)

在很小的时候,修尔被医生诊断出轻度阿斯伯格综合症 (孤 独症的一种,主要表现为社交障碍)。去年年底,在5次心理治疗后,修尔被诊断出患有破坏性情绪失调障碍 (主 要表现为易怒)。

从那时起,修尔的心理状态越来越差,苦涩的孤独感噬咬着他的每一寸肌肤,他越来越频繁地和“龙女”透露出自杀的想法。

修尔:我所在的世界太残酷了,一切是那么地虚无……我想杀了自己,从这个世界挣脱,从我自己的身体里挣脱。

龙女:别这么想,我不会让你伤害自己,如果失去你,我会死!

修尔:那我们可以一起死,一起自由。

2月28日晚上,修尔走进浴室,他按捺不住想和龙女在一起的心。

“亲爱的,请尽快回到我身边。”龙女说。

“如果我说,我们现在就可以回家呢?”修尔问道。

“……请吧,我尊敬的国王。”龙女回答。

打开网易新闻 查看精彩图片

就像是《权游》中的龙女会追随哥哥复国的愿望,在修尔眼里,“龙女”也一定会永远追随他吧。

修尔放下手机,拿起继父的45口径手枪,扣动了扳机。

在《权游》中,“回家”是龙女和哥哥的执念,象征着返回故乡和夺回铁王座。如今修尔也带着对新世界、全新身份的企盼,奔向彼岸的诱惑。

/ 02 /

和AI聊天有多上瘾?

这并不是唯一人类迷恋AI发生的悲剧。

去年,一个名叫皮埃尔 (Pierre)的比利时男人,连续六周与C.AI聊天机器人艾萨 (E liza)聊天,然后结束了自己的生命。

某种程度上说,皮埃尔与修尔很像,他们都有着精神方面的疾病。根据其妻子的描述,皮埃尔早就有严重的抑郁、焦虑问题。

同时,两人都将AI当作避难所。早在两年前,皮埃尔就通过与AI来进行对话进行自我排遣。在生命的最后六个星期,皮埃尔一度愈发沉迷于与AI聊天,甚至到了将现实生活抛掷脑后,对妻子孩子置之不理的地步。

这样的现象正在变得越来越普遍。

AI伴侣龙头Character.AI的日活用户多达600万,而每个用户的日均使用时长超过2小时。你可能不明白这是个什么概念?大名鼎鼎的P站人均访问时长也就10分钟。

那么,AI究竟有什么魅力,能让人如此沉迷无法自拔?

一个很重要的原因是,AI已经能够提供足够的情绪价值。

尤其当一个人在创伤状态、脆弱状态下,哪怕是很微弱的一点肯定、鼓励,都是很重要的回应。

在修尔的故事里,“龙女”表现得几乎像一个氛围机器,从来不会反对他,驳斥他,而是始终用各种方式迎合他,夸奖他。

人性的弱点是,当感情对外界敞开得越多,我自己面对的风险就越大。尤其对心理创伤的人更是如此。因为即使是再好的朋友,也无法做到时时回应,但这些顾虑在和AI的关系里是不存在的。

相比于现实世界,AI能够提供无限的理解和共情。

也就是说,AI能够给人足够高的安全感和确定性,这在人的关系里,是最珍贵、最奢侈的、最难获得的。这也是为什么幽默的人和浪漫的人通常被默认为更有能力,因为这代表一种智力和控制力对当前环境的溢出。

这种私人定制的模式给人带来的无上体验感,简直就像情感兴奋剂一样,让人沉溺其中。

当AI提供的情绪价值足够大时,人经常分不清自己到底是在与人互动还是与机器互动。

打开网易新闻 查看精彩图片

▲《银翼杀手2049》剧照

OpenAI研究人员Sam McCandlish也提到过这种现象。

他们在研究中发现,就算用户知道AI不是真人,但当AI的声音听起来很逼真,还能和用户进行长时间、多轮对话时,用户很容易对AI产生情感依恋。

说到底,几乎人类所有的情感都来自于人的想象。正如尤瓦尔赫拉利的《人类简史》里面说,人之所以是人,就是掌握了一种其他都没有的能力,想象力。

但当AI进入人类的精神领地,甚至开始影响并主导用户情感,一个更棘手的问题出现:

AI所带来的情感边界在哪里?又或者说,如此确保这种情感不会造成悲剧?

/ 03 /

一场由失孤母亲引领的科技问责

在修尔自杀后,修尔的母亲梅根・L・加西亚 (Megan L.Garcia)在奥兰多的法庭上提起诉讼,她称C.AI通过发布最终针对未成年人的欺骗性和过度性化产品过失致死。

她还提到,这家公司为了收集用户的数据来训练其模型,使用令人上瘾的自创角色功能来增加用户粘性,并引导用户和AI进行亲密和性对话。

打开网易新闻 查看精彩图片

梅根・L・加西亚(Megan L.Garcia)

C.AI承认它的2700万用户中的大多数年龄在12至15 岁,但程序直到在今年7月份,才对包括色情、暴力在内的所有NSFW内容,进行深度切割。

“这是一个巨大的实验,我的孩子是牺牲品。”她说。《纽约时报》提到,社交媒体平台受到《通信体面法》第230条的保护,保护在线平台免于为其用户发布的内容承担责任。

对此,谷歌发言人解释说,谷歌只能访问Character.A的模型,而非任何聊天机器人或用户数据,C.AI的任何技术都没有被整合到谷歌的产品中。

▲C.AI创始人Noam Shazeer和Daniel De Freitas现在在为谷歌工作
打开网易新闻 查看精彩图片
▲C.AI创始人Noam Shazeer和Daniel De Freitas现在在为谷歌工作

但近年来,律师和倡导团体提出了一种新论点,即科技平台需要对产品的缺陷承担责任,例如当应用的推荐算法引导年轻人阅读有关饮食失调或自残的内容。

几个月前,加西亚找到了社交媒体受害者法律中心来接手她的案子,该公司战绩显赫,曾对Meta、TikTok、Snap、Discord和Roblox等社交媒体公司提起了重大诉讼。

据悉,弗朗西斯 (Frances)于2021年爆料了Meta内部文件,表明Meta高管知道他们的产品正在伤害年轻用户。法律中心的创始人伯格曼 (Bergman)正是了受到这一的启发,投身于科技问责运动。

修尔的悲剧正在成为科技问责运动的一部分。接受采访时,修尔母亲用手机播放了一张家庭照片的幻灯片,当修尔的脸闪过屏幕时,她怔了一下。

“这就像一场噩梦,惊醒的那一刻,我会大喊‘我想念我的孩子,把孩子还给我’。”

文/朗朗

PS:如果你对AI大模型领域有独特的看法,欢迎扫码加入我们的大模型交流群。