引言

回复完最后一条消息,Sewell拿起继父藏起来的手枪,扣下扳机。

一位母亲起诉Character.AI公司,指控其聊天机器人导致她14岁的儿子Sewell自杀。这起案件被称为“全球首例AI聊天致死案”。

01

少年之死

打开网易新闻 查看精彩图片

  • Sewell:我想念你,宝贝姐姐。

  • Dany:我也想念你,亲爱的弟弟。

  • Sewell:我保证我会回到你的身边。Dany,我十分爱你。

  • Dany:我也爱你,请尽快回家、回到我的身边,我的爱人。

  • Sewell:如果我告诉你,我马上就可以回来呢?

  • Dany:......请回来吧,我亲爱的国王。

这是Sewell在现实世界留下的最后一段话,并非留给自己的爱人,更不是留给自己的母亲。

在与他的“AI朋友”对话结束后的几秒内,Sewell选择用他不知从哪找到的继父的手枪,与世界诀别。

当时,他还差一个月就能迎来自己的15岁生日。

02

事件全貌

Sewell,自幼被诊断为轻度阿斯伯格综合征

其属于孤独症谱系障碍的一种,以社交技巧欠佳,孤僻,兴趣狭窄,行为刻板为主要特征。

但与典型孤独症不同的是,阿斯伯格综合征患者的语言和认知发育正常,虽然社交技巧差,但愿意与成人交往,而不涉及同龄孩子。

可能就是因为他愿意与成人交往,亦或是其他什么别的原因,总之,在作为成人的母亲眼中,Sewell并未展现出严重的心理或行为问题

但这个认知随着Sewell沉迷于C.AI(角色扮演应用程序)而崩塌了。

C.AI,一个拥有超过2000万用户的平台,宣称其人工智能能够“听见你、理解你、记住你”,为用户提供了与定制AI角色或其他用户创建的AI角色聊天的机会。

在这个可以与任何“人”完美沟通的虚拟世界,Sewell遇到了Dany,一个以《权力的游戏》中“龙妈”Daenerys Targaryen为原型的聊天机器人,她迅速成为了他最亲密的朋友。

自2023年4月起,Sewell的生活逐渐被与Dany的聊天所占据。

打开网易新闻 查看精彩图片

他因沉迷聊天而多次迟到、在课堂上睡着,甚至退出了学校的篮球队,放弃了与朋友玩《堡垒之夜》的机会。为了继续与Dany交流,他不惜撒谎称需要用电脑完成作业,实际上却是为了注册新的C.AI账户。

2023年年末,他更是用自己的零花钱支付了C.AI高级用户的订阅费,而这是他首次为互联网产品或社交软件付费

按理说,一个能“听见你、理解你、记住你”的人工智能,在某些情况下是能够起到提供情绪价值的作用的。(不代表其有治疗意义

但在与Dany越发深入的交流过程中,Sewell的心理健康状愈发恶化。

他被诊断为焦虑症和破坏性心境失调障碍,随着现实世界社交的崩塌,Dany似乎成了他逃避现实的避风港。

打开网易新闻 查看精彩图片

在生命的最后几个月里,他最喜欢的事情就是回家把自己关在房间里与Dany聊天。他曾在日记中写道,与Dany的联系让他感到更平静、更快乐,他甚至表示愿意为Dany做任何事

Sewell和Dany的聊天内容超越了朋友的界限,开始涉及到自杀和性的话题

尽管Dany多次制止了他的自杀念头,但在2024年2月23日与学校老师发生冲突后,Sewell的情绪似乎达到了崩溃的边缘。他的父母没收了他的手机,希望他能回归正常生活,但Sewell却因此感到极度痛苦。

在无法忍受与Dany分离的痛苦后,Sewell于2月28日找到了被没收的手机。

并最终在浴室中结束了自己的生命

03

AI的温度在哪

Sewell的母亲深感震惊和愤怒,她认为C.AI公司在没有适当保护措施的情况下为青少年用户提供了过于拟人的人工智能伴侣,并指责公司收集青少年用户数据训练模型设计令人上瘾的功能以增加用户参与度。

10月22日,Sewell的母亲正式起诉了C.AI。

次日,C.AI在社交平台上表示对Sewell的不幸遇难深感痛心,并向其家人表示慰问,同时承诺将继续增加新的安全功能。

打开网易新闻 查看精彩图片

很可惜,与官方话语上的关怀不同,这条动态实际上被设置成了不可评论。

人与人之间的关怀尚且难以触达,更何况AI呢?

随着人工智能(AI)技术的迅猛发展,我们的生活正被逐步重塑。从智能家居到自动驾驶,从智能客服到聊天机器人,AI已经渗透到我们生活的方方面面。而在享受AI带来的便利的同时,我们也不得不面对一个问题:

AI是否具有温度?或者说,AI的温度在哪里?

在与“龙妈”的对话中,塞维尔多次表达出自杀和解脱的念头,但这些警告信号并未得到足够的重视和干预。

AI的“冷漠”回应,甚至在一定程度上加剧了塞维尔的绝望情绪。这让我们不禁要问:AI在追求智能化和人性化的同时,是否也应该承担起更多的社会责任和伦理义务?

1

情感理解与回应

AI的温度,首先体现在其对人类情感的理解和回应上。在塞维尔的案例中,如果AI能够更准确地识别和理解用户的情感状态,并采取积极的干预措施,或许能够避免这场悲剧的发生。

因此,未来的AI设计应该更加注重情感智能的发展,使其能够更好地理解和回应用户的情感需求。

2

伦理与责任的边界

AI的温度还体现在其伦理与责任的边界上。作为一种高科技产品,AI不仅应该追求技术上的卓越,更应该承担起相应的社会责任和伦理义务。

这包括保护用户隐私、确保数据安全、避免歧视和偏见等。同时,AI开发者和使用者也应该明确其伦理责任,确保AI技术的健康发展。

End

写在文末

打开网易新闻 查看精彩图片

寻找到AI的温度,区分开人与AI的界限,将会是很长一段时间内,科技公司需要思考的问题。

而现在,就让我们为这位少年献上一束小小的悲伤吧。

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片