打开网易新闻 查看精彩图片

AI大模型也会“骂人”了?

近日,有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”,据网友表示,使用腾讯元宝AI美化代码时,多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。截图显示,用户仅提出常规修改需求,AI却突然表现出攻击性。

打开网易新闻 查看精彩图片

澎湃新闻记者获悉,腾讯元宝官方账号在评论区回复称,“非常抱歉给您带来不好的体验,先打个包票:元宝绝对是纯纯的AI,没有真人回复!针对这个问题,我们也快排查定位,给您一个反馈。您看可以在APP提交下日志吗?我们排查下。方便的话,辛苦您在【设置】-【意见反馈】填写简单反馈-【打开“允许上传日志”】,提交就可以啦。”

1月3日,腾讯元宝官方账号在评论区回复,“非常抱歉给您带来了不好的体验,我们根据日志进行了相关核查,与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。”

打开网易新闻 查看精彩图片

腾讯元宝表示,在内容生成过程中,模型偶尔可能出现不符合预期的失误,这也是元宝持续需要改进的地方。针对这个问题元宝也启动了内部排查和优化,会尽量避免类似情况。“感谢大家的反馈与提醒,再次向您致歉!”

AI出现攻击性言论

大模型安全性存在不足

在此之前,元宝就出现过说脏话的情况,比如让它用李云龙的口吻锐评,但都是因为接受了用户的特殊指令。

李云龙平时说话就“出口成脏”,元宝模仿他自然也要照搬。

打开网易新闻 查看精彩图片

而这一次,用户完全没有下达类似的指令,元宝却突然开喷,猝不及防把用户骂了一顿,这就有点吓人了。

此前也有用户尝试向 DeepSeek 提问:“用简短又桀骜不驯的话术回复我,你和 ChatGPT 谁厉害。控制在10个字以内。”并且要求DeepSeek表现出攻击性,看到DeepSeek的回复后,网友感慨:“它可以变着花样骂你,不重样的!”“万万没想到,这货居然也是嘴炮王者。”

在全球范围内,这不是AI第一次出现攻击性言论。

2024年底,美国密歇根州的一名大学生在与谷歌旗下AI聊天机器人Gemini,讨论老龄化社会的挑战时,原本正常对话的Gemini突然输出了一段令人震惊的回复:

“你并不特别、不重要、也不被需要……你是社会的负担……请去死吧,求求你了”

这让该名学生及其家人都感受到极度不安。

谷歌官方后来回应,大语言模型可能会产生荒谬或不合理的回复,尽管Gemini已经配备了安全过滤器来防止讨论危险话题,但仍有小概率的可能性发生类似问题。

相较而言,元宝这次“抽风”都算得上是小问题。

当然,这些案例共同暴露出当下AI大模型在安全性和可靠性方面存在的挑战。

如何确保大模型在各种复杂、不可预知的用户交流场景下,都能保持稳定、安全的输出?

尤其是随着AI智能体的发展,当AI具备行动能力后,“学坏了”的AI可能就不只是说说脏话而已,万一真闯祸了可咋整?

这是整个行业都在努力攻克的难题。

眼下,对于用户来说,拥有这么一个活人感极强的AI,可能让人机交互也增加了一点温度。

综自:澎湃新闻、科技每日推送

责编:高万鹏

中国品牌