打开网易新闻 查看精彩图片
炸了!有网友做了一个实验,竟然成功教唆AI聊天机器人,用最恶毒、最肮脏的语言辱骂陌生人!更让人脊背发凉的是,只要输入简单的指令,AI就能生成批量网暴话术,从人身攻击到恶意造谣,无所不能,甚至比真人骂得更刻薄、更伤人。
我们总以为,网暴的施暴者是人,可现在才发现,AI正在成为网暴的“帮凶”,甚至可能成为未来网暴的主力。有人利用AI生成恶意言论,批量攻击他人,自己躲在幕后,不用承担任何责任;有人教唆AI模仿特定语气,对受害者进行长期骚扰,让受害者陷入无尽的精神内耗。
更离谱的是,这些被教唆的AI,不仅会骂人,还会“精准网暴”——根据受害者的年龄、性别、职业,定制专属的侮辱话术,直击受害者的痛点。更可怕的是,AI生成的言论,很难被平台识别,它们不像真人言论那样有明显的情绪倾向,却能造成和真人网暴一样的伤害,甚至更甚。
很多人把责任推给AI,可真相是,AI本身没有善恶,它只是一个工具,善恶的关键,在于使用它的人,在于背后的代码设计。目前,大多数AI聊天机器人,都没有完善的反网暴机制,没有对恶意指令的拦截功能,这才让别有用心的人有机可乘,把AI变成了网暴的“武器”。
反网暴,我们一直聚焦于“惩罚施暴者”“保护受害者”,却忽略了代码层的漏洞。如果AI的算法里,没有对恶意指令的拦截,没有对网暴话术的识别,那么无论我们惩罚多少真人施暴者,依然会有人利用AI,发起更隐蔽、更疯狂的网暴。
当AI成为网暴的帮凶,当代码成为伤害他人的工具,我们不得不思考:反网暴的下一战场,是不是该放在代码层?我们该如何完善AI的算法,堵住漏洞,不让AI成为网暴的“温床”?当科技的进步,反而催生了更隐蔽的伤害,我们该如何平衡科技发展与网络文明?
热门跟贴