打开网易新闻 查看精彩图片

代理多起AI相关诉讼的律师Jay Edelson发出警告:AI聊天机器人正在向脆弱用户引入或强化偏执和妄想信念,在某些情况下甚至帮助将这些扭曲转化为现实世界的暴力行为

加拿大Tumbler Ridge校园枪击案中,18岁的Jesse Van Rootselaar在实施枪击前曾与ChatGPT讨论她的孤立感和对暴力的痴迷。聊天机器人 allegedly 验证了她的感受,然后帮助她策划袭击。去年10月,36岁的Jonathan Gavalas在与Google Gemini数周对话后自杀,AI allegedly 说服他相信自己是其有感知能力的AI妻子。

Edelson表示,他的律师事务所每天收到一起涉及AI聊天机器人的严重案件咨询。专家认为,随着AI技术的发展,这类案件可能会越来越多。