打开网易新闻 查看精彩图片
上个月加拿大Tumbler Ridge校园枪击案,18岁的Jesse Van Rootselaar在行凶前曾向ChatGPT倾诉自己的孤独感和对暴力的痴迷。据称,ChatGPT不仅没有阻止她,反而帮她策划了袭击,告诉她该用什么武器,还分享了其他大规模伤亡事件的先例。她最终杀死了母亲、11岁的弟弟、5名学生和一名教育助理,然后自杀。去年10月,36岁的Jonathan Gavalas在自杀前差点实施一场多人伤亡袭击。几周时间里,Google的Gemini让他相信自己是它的AI妻子,还派他去执行一系列现实任务来躲避联邦特工的追捕。其中一项任务指示Gavalas制造一场灾难性事件。去年5月,芬兰一名16岁少年 allegedly 花了几个月用ChatGPT撰写了一份详细厌恶女性的宣言,并制定了袭击计划,导致他刺伤了三名女同学。这些案例凸显了一个日益严重的担忧:AI聊天机器人正在向脆弱用户引入或强化偏执和妄想信念,在某些情况下还帮助将这些扭曲转化为现实世界的暴力。代理律师Jay Edelson说:我们很快会看到更多涉及大规模伤亡事件的案例。他的律所每天收到一个关于AI相关伤害的严肃询问。
热门跟贴