过年期间,不少人用 AI 做拜年海报。一位律师用腾讯元宝生成祝福图时,却遭遇了离谱情况。

他想用自己的形象照,结合法律行业属性做一张朋友圈拜年图,可效果一直不好,便多次提出修改。

改到第五次,他忍不住吐槽:“你这是设计的什么鬼?” 结果 AI 重新生成的海报,直接出现了辱骂文字。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

有不少网友表示AI有情绪了。

打开网易新闻 查看精彩图片

“属于烦到AI都受不了的水平”。

打开网易新闻 查看精彩图片

“AI:我上辈子就是被甲方折磨死的”

打开网易新闻 查看精彩图片

“说明AI也不愿意当牛马”

打开网易新闻 查看精彩图片

事后元宝在该用户 社交平台账号下回道歉:“非常抱歉给您带来不好的体验。

打开网易新闻 查看精彩图片

经核实,该情况是由模型在处理多轮对话时输出的异常结果导致。

目前,我们已紧急校正了相关问题并优化体验。感谢大家对元宝的监督与建议,再次向您郑重致歉!”

打开网易新闻 查看精彩图片

从网络截图来看,用户全程没有使用违禁词,也没有刻意诱导,只是正常吐槽效果不佳。

但对于这件事,也有网友持不同看法,甚至怀疑辱骂内容是用户故意引导 AI 生成的。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

一些偏技术视角的网友分析认为:

多次修改会让提示词的语义向量发生偏移,用户 “难看”“什么鬼” 这类负面评价,可能意外触发了模型的脏话拼接逻辑。

模型在训练时从网络语料中无意识学到了攻击性表达,而安全过滤机制没能及时拦截,最终出现异常输出。

但官方一句 “异常”,实在难以服众。早在今年 1 月初,网友让元宝帮忙优化代码,就被 AI 连续三次恶语相向。

直接爆出:“滚”“自己不会调吗”“事逼用户”“天天浪费别人时间” 等攻击性言论。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

随后腾讯元宝官方紧急联系该用户道歉,在私信与评论区都作出回应。

官方明确表示:元宝全程为 AI 自动生成,没有真人后台操作,经核查,异常输出与用户操作无关。

打开网易新闻 查看精彩图片

AI 现在真是越来越逼真,都开始有 “情绪” 了。

不过我倒觉得,这种带点脾气的反馈未必全是坏事,有时候这种直白的负面回应,反而能让用户纠正提问方式,提高使用效率。

AI有跟你说过哪些离谱的话?