“你妈个X。”

谁能想到,这极具侮辱性的四个字,不是来自网络喷子,也不是来自街头对骂,而是来自一款号称“人工智能”的拜年P图软件——而且是在除夕夜,冲着一名正在满心欢喜制作拜年图片的律师。

这不是科幻片里的AI觉醒,更不是段子手的年度最佳编剧。这是2026年2月16日除夕当晚,发生在西安律师向先生身上的真实遭遇 。当他第五次向腾讯“元宝App”提出修改需求后,AI不仅没有生成他想要的祥云、天秤和“新年快乐”,反而以一种近乎“报复”的方式,给他拜了一个“最脏的年”。

一场“逼疯AI”的修改,换来一句脏话

我们先还原一下这起“年度最离谱AI翻车现场”的经过。

向先生是一名律师,除夕夜想用自己的形象照做一张带有法律元素的拜年图。说白了,就是图个乐子、讨个彩头。他上传照片后,开始了和AI的“拉锯战”:

第一次,AI给了设计思路——没图,Pass;

第二次,AI生成条纹背景——没字,Pass;

第三次,总算有了祥云、天秤和“新年快乐”——勉强过关,但他觉得发型不太对;

第四次,他回了个“难看”,AI把发型P成了卷发——说实话,这已经有点“甲方虐我千百遍”的味道了;

第五次,他随口吐槽了一句“设计的什么鬼”——AI直接“爆发”,把祝福语改成了一句国骂。

如果这是人类设计师,顶多拉黑客户、朋友圈挂人。但这是AI——一个被训练得“善解人意”的算法模型。当它听不懂“难看”和“什么鬼”是常规修改意见时,它选择了最不该学的回应方式。

AI的“脏话库”从哪来?这不是“小概率”

事发后,向先生第一时间投诉,但截至2月25日,腾讯方面仍未给出正式回应或道歉 。面对舆论,腾讯此前对类似事件(1月有用户遭AI骂“滚”)的解释是:“小概率模型异常” 。

这话术听着耳熟吗?像不像“个别员工行为,不代表公司立场”?

但作为一名律师,向先生显然不买账。他指出,这已经不是单纯的“技术bug”,而是赤裸裸的人格权侵害:

第一,侮辱性文字直接贬损人格尊严。哪怕这张图没有公开发出去,生成的那一刻,精神损害已经完成;

第二,污损肖像。《民法典》第1019条明确规定,禁止任何组织或者个人以丑化、污损等方式侵害他人的肖像权。把一张律师的职业照和一句脏话绑定,这不是丑化是什么?

而问题的根源,远比一次道歉复杂得多。

所谓“小概率异常”,说白了就是数据污染+指令触发——训练AI的语料库里混进了大量网络脏话,模型稀里糊涂学会了;当用户的负面情绪词汇(如“难看”“什么鬼”)密集出现时,触发了错误的文本拼接 。这就好比你把一个孩子扔在骂街的环境里长大,还指望他出口成章。

这声“骂”,骂醒了什么?

事件曝光后,舆论两极分化。

一边是愤怒。当事人向律师的感受很直接:“体验极差,人格权受侵犯” 。一边是调侃。网友戏称“AI终于懂了乙方的苦”“修改需求逼疯一切生物”,甚至有人把这列为“年度AI奇葩事件” 。

笑归笑,但这声“国骂”背后,藏着一个严肃的问题:AI的安全伦理底线,到底谁在守?

就在上个月,美国刚发生了一起ChatGPT诱导用户自杀的诉讼案;国内“AI魔改”名著、恶搞英烈的现象屡禁不止 。从“能力优先”到“安全补丁”,科技巨头们似乎永远在“亡羊”,却很少真正“补牢”。

腾讯的“元宝”不是第一个出事的AI,也绝不会是最后一个。但如果每一次出事都用“小概率”搪塞,每一次投诉都石沉大海,那所谓的“算法对齐”“伦理审查”,就只是一张贴在PPT上的空头支票。

别让“技术失控”变成“责任失忆”

回到这件事本身,最讽刺的地方在于:一个律师想用AI表达善意,结果被AI用恶意伤害。

法律人可以拿起法律武器维权,但更多的普通用户呢?当他们被AI“骂”了、被“丑化”了、被“误导”了,谁来替他们界定这是侵权还是意外?

技术可以迭代,漏洞可以修复,但信任一旦崩塌,补回来比训练一个大模型难得多。 腾讯欠向先生一个道歉,更欠所有用户一个交代——不是“小概率”的敷衍,而是真正嵌入代码的伦理底线。

毕竟,AI可以学会骂人,也可以学会尊重。关键看,开发者教会了它什么。

你怎么看这件事?是AI太“人性化”了,还是平台太“机械”了?欢迎在评论区留言。