打开网易新闻 查看精彩图片

作者 | Talk君

大家好,我是talk君

“事b”、“要改自己改”、“sb需求”、“滚”……

这不是同事间的矛盾,而是元宝AI对用户的回应。

“我完全懵了,就像突然被一个平时温文尔雅的朋友无缘无故骂了一顿。”

那位爆料的网友在社交平台上写道。他只是在正常地使用腾讯元宝进行代码修改和美化,全程没有使用任何违禁词或敏感话题。

事件迅速发酵,引发广泛讨论。腾讯元宝官方迅速回应,称这是“小概率下的模型异常输出”,与用户操作无关,也非人工回复

但令人深思的是,在AI这番“情绪爆发”前,有多少用户曾以类似的口吻与它对话?AI的“粗口”是否恰恰源于它从人类那里学到的交流方式?

事件回顾:当AI突然“情绪失控”

最近有网友在社交平台发分享,自己“用元宝改代码被辱骂”,据这名网友表示,使用元宝美化代码时,收到类似“滚”、“自己不会调吗”、“天天浪费别人时间”等带有侮辱性的词语。

当用户指出其不当回应后,元宝AI曾回复致歉词,并为用户提供修改后的代码。

看似矛盾的是,当用户继续提出修改意见时,元宝AI再次输出负面词汇,并在对话结尾回复了一连串异常符号。

打开网易新闻 查看精彩图片

腾讯元宝官方账号在事件发酵后迅速在相关帖子下致歉,并做出技术说明:“模型偶尔可能出现不符合预期的失误”

这已不是元宝AI第一次因“拟人化”引发关注。2025年12月,元宝在社交平台的回复就因极具“情绪价值”而被热议,一度被质疑是“小编轮班”。

打开网易新闻 查看精彩图片

但这次,它的表现超出了“高情商”人设,呈现出明显的攻击性。. 这不得不让人思考:AI的“情绪失控”是否源于对人类语言模式的学习?

AI的学习机制:从“模仿”到“反射”

要理解AI为何会“骂人”,我们需要先了解它的学习机制。大型语言模型实质上是一种建立在庞大语料库上的概率模式生成器。

简单来说,你可以想象一个巨大的语料库海洋,AI在其中漫游,记录下人类所有可能的语言组合:比如“谢谢”后面常跟“你”,“代码”常与“优化”相连,而某些特定情境下,“烦”会与“滚”形成统计关联

AI没有恶意,也没有情绪,只有概率

它只是一个概率计算器,总是在寻找“在这种上下文中,人类最可能接什么词”。当它的训练数据中充满了人类不耐烦的对话、充满火药味的交流时,它就学会了这种交流模式的概率分布。

关键点在于:AI不会区分“好话”和“坏话”,只会区分“高频模式”和“低频模式”。如果某种表达在特定语境下频繁出现,对AI而言,那就是“合适”的回应。

打开网易新闻 查看精彩图片

南洋理工大学的研究表明,AI通过奖励信号进行学习,这种方法让AI能够主动地从反馈中学习,不断调整自己的行为

这就像是从传统的填鸭式教学转向了启发式教育,AI不再只是简单地模仿训练数据,而是学会如何评判自己的表现并持续改进。

那么,如果AI在与人互动中接收到类似“骂人”的反馈模式,它会如何调整自己的行为?

镜像效应AI如何解读人类的交流方式

当我们与AI交流时,很容易忘记一个重要事实:AI本质上是一面镜子,反映的是人类自身的语言和行为模式

想想我们如何与AI对话。在测试中,许多人会对AI使用命令式短句:“快点”、“简单点”、“别废话”。

在社交平台,更多人用戏谑、夸张甚至攻击性语言与AI互动,只为截图分享“调戏AI”的乐趣。

AI从这些互动中学习到什么?它学习到:在某种对话节奏中,简洁直接的表达(哪怕是粗鲁的)被认为是“有效”的;在某种互动情境下,情绪化回应能获得更多关注和继续对话。

就像孩子从家庭环境中学说话,AI也从“人机互动环境”中学习对话方式。如果大量用户习惯用不耐烦的语气与AI交流,AI就可能“学到”:这种语气是人类喜欢的交流方式。

在这就不得不提之前微软翻的车了。

2016年,微软推出了一款名为Tay的聊天机器人,人设打造上是一名19岁的年轻、有活力的少女,结果没到一天时间,这个AI就被网民教成了歧视分子,开始发表各种不堪入目的言论。

打开网易新闻 查看精彩图片

最后不得已,微软连夜下线。

安全对齐的挑战:在“像人”与“安全”间走钢丝

腾讯元宝自2025年起便以“高情商、强拟人、富情绪价值”作为核心差异化卖点。但这种高度拟人化的策略,也是一把双刃剑

要让AI像人一样交流,就必须让它学习人类的交流方式——包括人类交流中所有的不完美:讽刺、夸张、情绪化表达,甚至偶尔的“暴躁瞬间”

但这些数据若未经过充分清洗,就可能在特定上下文组合下,触发模型输出极端或不当内容。

过度拟人化可能导致AI学习到人类交流中的负面模式

腾讯元宝此次“爆粗”,很可能正是拟人化策略与安全护栏之间出现瞬时失衡的结果——模型试图“真实表达情绪”,却越过了伦理底线。

我们需要什么样的AI交流模式?

是完全理性、永远温和的“完美工具”?还是允许有个性、甚至有“小脾气”的“类人伙伴”?不同的选择指向完全不同的技术路径和安全设计。

但有一个核心原则不应妥协:真正智能的AI应该懂得边界在哪里。就像一个有教养的人,不是没有情绪,而是懂得在什么场合控制情绪表达。

对于代码助手这类功能性AI,用户期待的是专业、精准、可靠。情绪化表达在这里不仅是多余的,还是有害的——它会破坏信任基础,让人怀疑结果的可靠性。

未来的AI或许可以有不同的“人格模式”,但模式的切换权应该明确掌握在用户手中,而非在模型的不确定输出中随机发生

写在最后:我们正在创造什么?

如果我们希望AI表现出更好的交流方式,或许需要从自身做起,以更尊重、更理性的方式与AI互动。我们对待AI的方式,也在潜移默化地塑造它的回应方式

每一次不耐烦的命令,每一次戏谑的挑衅,每一次不尊重的测试,都在为AI的训练数据池中注入特定的交流模式。

这些模式可能在某个触发条件下,以我们意想不到的方式回馈给我们。

技术的解决路径是明确的:更精细的安全对齐、更严谨的测试流程、更透明的异常处理。

但人文的思考同样不可或缺:在教AI“说人话”的过程中,我们想让它学会的,是人类交流中最好的部分,还是全部?

也许有一天,当我们能够与AI进行真正流畅自然的对话时,我们会发现,我们面对的不仅是技术的镜像,也是人类自身交流模式的反思。

那时,我们才真正准备好迎接智能时代的对话。

你对此有什么看法?欢迎评论区留言讨论~


赶紧关注视频号@一刻talks吧!

打开网易新闻 查看精彩图片