过年期间,不少人用 AI 做拜年海报。一位律师用腾讯元宝生成祝福图时,却遭遇了离谱情况。
他想用自己的形象照,结合法律行业属性做一张朋友圈拜年图,可效果一直不好,便多次提出修改。
改到第五次,他忍不住吐槽:“你这是设计的什么鬼?” 结果 AI 重新生成的海报,直接出现了辱骂文字。
有不少网友表示AI有情绪了。
“属于烦到AI都受不了的水平”。
“AI:我上辈子就是被甲方折磨死的”
“说明AI也不愿意当牛马”
事后元宝在该用户 社交平台账号下回道歉:“非常抱歉给您带来不好的体验。
经核实,该情况是由模型在处理多轮对话时输出的异常结果导致。
目前,我们已紧急校正了相关问题并优化体验。感谢大家对元宝的监督与建议,再次向您郑重致歉!”
从网络截图来看,用户全程没有使用违禁词,也没有刻意诱导,只是正常吐槽效果不佳。
但对于这件事,也有网友持不同看法,甚至怀疑辱骂内容是用户故意引导 AI 生成的。
一些偏技术视角的网友分析认为:
多次修改会让提示词的语义向量发生偏移,用户 “难看”“什么鬼” 这类负面评价,可能意外触发了模型的脏话拼接逻辑。
模型在训练时从网络语料中无意识学到了攻击性表达,而安全过滤机制没能及时拦截,最终出现异常输出。
但官方一句 “异常”,实在难以服众。早在今年 1 月初,网友让元宝帮忙优化代码,就被 AI 连续三次恶语相向。
直接爆出:“滚”“自己不会调吗”“事逼用户”“天天浪费别人时间” 等攻击性言论。
随后腾讯元宝官方紧急联系该用户道歉,在私信与评论区都作出回应。
官方明确表示:元宝全程为 AI 自动生成,没有真人后台操作,经核查,异常输出与用户操作无关。
AI 现在真是越来越逼真,都开始有 “情绪” 了。
不过我倒觉得,这种带点脾气的反馈未必全是坏事,有时候这种直白的负面回应,反而能让用户纠正提问方式,提高使用效率。
AI有跟你说过哪些离谱的话?
热门跟贴