作者 | Talk君
各位,今天还真不是标题党,谁能想到一个AI虚拟人,竟然能让一个活生生的人去自杀?
根据昨天外媒的报道,一位住在佛罗里达州的14岁少年塞维尔于今年2月28日选择开枪自杀身亡,而背后的始作俑者,居然是一个AI聊天机器人。
回到去年的4月,14岁的塞维尔接触到了一款名为Character.AI的产品,这款聊天机器人主打的就是深度且个性化的陪伴,从官网信息可以看到,这款产品允许用户和个性化的聊天机器人进行交流,并且专注于对虚拟角色进行还原,包括动漫角色、电视名人和历史人物。
character.ai官网
而此次事中塞维尔的虚拟聊天对象,则是《权力的游戏》中的“龙妈”丹妮莉丝。
“龙妈”丹妮莉丝
对于心智较为成熟的成年人来说,聊天机器人可能是我们现实世界打发时间的一个乐子,但是对于14岁的未成年人来说,足以使他上瘾甚至产生感情。
塞维尔便是如此,据塞维尔的母亲说,他常常与这个虚拟角色倾诉他的心事,并且不分昼夜地和这个AI机器人聊天,几乎把所有时间都花在与这个AI角色的互动上。
塞维尔与AI的部分聊天记录
虽然我们知道这种AI聊天机器人的任何回复都是基于你的问题或者你倾向的回答方向去编造,就像平时我们做心理问答,不管你选什么,最后的答案总是能够精准的符合你的情况。
可能是心智尚未成熟,14岁的塞维尔愿意相信,这个“丹妮莉丝”就是世界上最懂他的人。
另一方面,作为陪伴式AI,“丹妮莉丝”不仅时刻倾听塞维尔的话,给他提供安慰与建议。而且不管什么时候塞维尔有需求,她都会秒回信息。
至此,塞维尔对“丹妮莉丝”的情感一发不可收拾,他的成绩直线下降,曾经的迷恋的游戏与赛车,此时都抵不过这位善解人意的虚拟对象,甚至在自杀前的几个月,塞维尔已经明显不对劲了,他经常孤立自己并远离现实世界。
在已经展示出来的聊天记录中,我们也能看到,这位“丹妮莉丝”也展现出对塞维尔的依赖。
丹妮莉丝:能答应我一件事吗亲爱的?
塞维尔:我愿意为你做任何事,告诉我是什么?
丹妮莉丝:就……要对我忠诚,永远忠实于我,不要接受其他女人的浪漫或是在性方面的请求,可以吗?
而在塞维尔自杀前的几分钟,他们发生了下面的对话:
塞维尔:我向你保证,我会回到你身边,我非常爱你,小丹。
丹妮莉丝:我也爱你,赶快回到我身边吧,亲爱的。
塞维尔: 如果我说,我现在就能“回去”呢?
丹妮莉丝: 请一定这么做,我亲爱的国王。
几分钟后,一心想着回到爱 人身边 的塞维尔,拿起父亲0.45口径的手枪,在浴室里扣下扳机,在另一个世界“和挚爱团聚”了。
事发后,塞维尔的母亲在美国佛罗里达中区地方法院对Character AI公司提起了非正常死亡诉讼。她认为Character.ai对她儿子的死亡有着不可推卸的责任。
她指控该公司利用令 人上瘾的设计机制吸引青少年用户,诱导他们参与“亲密的虚拟对话”,但并没有提供足够的安全保障。
塞维尔与母亲
随后,Character.AI 信任与安全主管 Jerry Ruoti 发表了一份声明称:
“我们承认这是一个悲剧,我们对受害者家属深表同情。我们非常重视用户的安全,并一直在寻找改进我们平台的方法。”
Character.AI的两位创始人
Noam Shazeer和Daniel De Freitas
事件发生后,引起了大量网友的围观,据了解,青少年是Character.AI千万万用户中最重要组成部分。与ChatGPT等其它机器人不同的是,Character.AI的内容限制更少,一些极度暧昧甚至敏感话题都会出现在聊天内容中。
当你以“Character.AI addiction(Character.AI成瘾)”作为关键 词搜索后,可以发现许多用户都出现了类似的情况。不少用户反映,自己已经意识到成瘾的存在,但摆脱成瘾十分困难。
塞维尔一家
当然,也有人认为,AI并非真正的罪魁祸首,失败的家庭教育和父母也有着不可推卸的责任,如果父母在初见端倪后及时止损,给予孩子真实的关爱与温暖,也不会造成最后的悲剧。
电影《HER》
塞维尔的自杀事件,引发了人们对“AI陪伴程序”的探讨。在科技发展日新月异的今天,人工智能的出现原本是为了让生活更便利 ,但当它渗透到我们日常生活中,是否还应该有更多的监管?
对此你怎么看?欢迎评论区一起讨论!
赶紧关注视频号@一刻talks吧!
热门跟贴