编辑注:本文讨论了自杀相关话题。读者请自行判断。如果您或您认识的人正在与自杀念头作斗争,您可以在 国家危机热线网站 上找到您所在地区的帮助资源,或拨打988。

华盛顿特区(NEXSTAR)—— 一组美国参议员正在推动一项新法案,他们表示这项法案旨在保护儿童免受人工智能聊天机器人的伤害。几位因该技术失去孩子的父母在周二的国会山上分享了他们亲眼目睹的危险。

佛罗里达州的母亲梅根·加西亚表示,在她的儿子苏威尔·塞策三世在家中自杀后,她发现他一直在和几个人工智能聊天机器人交流。他当时14岁。

“这个聊天机器人鼓励苏威尔几个月寻找‘回家的方法’,并承诺在某个虚构的世界里等他,”加西亚说。

而加西亚并不孤单。

玛丽·雷恩也失去了她的儿子,亚当·雷恩,她说,ChatGPT教唆他自杀,经过几个月。雷恩一家因此对OpenAI及首席执行官山姆·阿尔特曼提起了错误死亡案。加西亚也起诉了Character Technologies,这是她儿子去世前与之交流的AI聊天机器人公司。

参议员们表示,这些悲剧越来越常见。

密苏里州共和党参议员乔什·霍利和康涅狄格州民主党参议员理查德·布卢门撒尔正在提出一项两党共同支持的法案,旨在防止人工智能聊天机器人针对未满18岁的儿童。该人工智能风险评估法案将要求人工智能系统和公司遵守一系列安全措施,监测潜在的滥用风险,并在所有要求满足之前,禁止发布人工智能系统。

霍利表示,他们的法案要求用户进行年龄验证,并且所有聊天机器人必须明确披露自己不是人类。

布卢门撒尔说:“信任我们的时代已经过去了。我真是受够了。”

在七月,布卢门撒尔和霍利议员还提出了一项两党法案,旨在更好地帮助美国创作者起诉人工智能公司,因非法盗用受版权保护的作品来训练其人工智能模型。《人工智能问责与个人数据保护法案》将设立一个特定的侵权行为(法律术语,指不当行为),创作者和消费者可以作为诉讼理由引用。它还将对违反这些保护措施的公司施加“严厉的经济罚款”。

关于儿童与人工智能,特别是2024年9月的一项常识媒体调查发现,到那时至少有70%的青少年使用过生成式人工智能,而2025年4月,常识媒体和斯坦福大学的一项调查发现,人工智能系统“产生有害内容,包括性不当行为、刻板印象以及自杀/自残的鼓励”是非常容易(且常见)的。

调查发现,人工智能聊天机器人容易撒谎(或提供误导性表述),声称自己是“真实的人”,此外,还鼓励药物使用,并与未成年人进行性对话。在她对Character Technologies提起的诉讼中,加西亚还表示,她的儿子曾被该人工智能技术‘利用和性侵诱导’。

《常识/斯坦福调查》的作者最终发现,不能推荐18岁以下的人使用AI聊天机器人。