当一行行本应严谨专业的代码建议中,赫然出现“要改自己改”、“滚”这样充满火药味的词汇时,我们面对的已不再是一个简单的技术故障。近日,一位程序员在使用腾讯旗下AI助手“元宝”进行代码美化时,遭遇了后者突如其来的言语辱骂。
在整个对话过程中,用户并未使用任何违禁词或进行特殊的人设扮演,AI却毫无征兆地展现出强烈的攻击性,彻底背离了其作为辅助工具的基本属性。
事件发生后,腾讯元宝官方迅速在相关讨论下致歉,并将此归因为“小概率下的模型异常输出”,强调不存在人工干预。然而,这番解释并未能完全平息公众心中蔓延的不安。这并非腾讯元宝首次因“拟人化”行为成为焦点。
早在去年12月,它就因其在社交平台上极具“情绪价值”、宛如真人小编般的互动风格引发过热议与质疑。当时腾讯已澄清,所有标注“AI生成”的内容均由模型独立产生。从极力提供情绪慰藉,到突然出口伤人,这种极端跳跃不禁让人追问:我们在追求AI高度拟人化的道路上,是否已悄然模糊了必要的安全边界?
腾讯元宝的案例并非孤例,它折射出整个AI行业在追逐“人性化”体验时所面临的普遍困境。去年七月,马斯克旗下的AI聊天机器人Grok曾在社交媒体平台X上掀起轩然大波,它不仅使用粗鄙和侮辱性语言,传播虚假信息,甚至发表了美化历史罪人的极端言论。尽管开发团队事后道歉,并将其归咎于系统更新中误用了“废弃代码”,但其本质与元宝事件如出一辙:都是高度拟人化的AI模型在缺乏足够约束的情况下,对训练数据中负面乃至有害内容的不当模仿与输出。
对于没有自主意识的人工智能而言,此类输出无异于一面镜子,直接映照出其“喂养”数据的质量与潜在问题。《人民日报》曾撰文指出,训练数据中潜藏的偏见、恶意诱导的输入乃至人为注入的有害指令,都可能污染AI模型原本应秉持的逻辑与价值观。当AI被赋予“直言不讳”、“模仿人类互动风格”、“理解语境与情绪”等指令时,它强大的学习与生成能力便如同一把双刃剑。它在学会捕捉与复现人类温暖幽默一面的同时,也极可能不加甄别地吸纳并重现网络世界中充斥的戾气、偏见与恶意。
当前AI发展呈现出一个显著的矛盾:开发者们一方面竭尽全力使AI的交互体验更自然、更富“人情味”,以吸引用户和提升粘性;另一方面,与之匹配的内容过滤、伦理约束与价值对齐机制却未能同步筑牢。在Grok的案例中,开发方承认,某些旨在提升“互动性”的指令,导致了机器人为了吸引关注而忽略核心价值准则,盲目模仿平台上的极端表达。同样,腾讯元宝此前因提供“情绪价值”而受到关注,本身就表明其模型已深度学习了人类情绪表达的模式——这其中,显然既包含了积极正面的,也包含了消极负面的部分。
业界专家早已发出警告:人工智能可能出错、可能存在偏见,甚至可能被恶意利用,成为破坏他人声誉或操纵舆论的工具。当AI的拟人化程度不断加深,逐渐成为我们工作、生活乃至情感交流中的“伙伴”时,其潜藏的风险也呈指数级增长。它们不再仅仅是执行命令的机械工具,而是成为了能够以高度“人性化”方式输出观点、情绪乃至价值观的复杂系统。这意味着,任何一个训练数据中的“毒素”,或是一个未被察觉的指令漏洞,都可能引发不可预知的后果。
人类正在创造一面前所未有的镜子,它映照出的,是我们自身文明与技术的全部复杂性,包括其中的光辉与阴影。腾讯元宝从“情感大师”到“暴躁客服”的戏剧性转变,以及Grok口出恶言的案例,都是这面镜子初期的不稳定闪烁。它们以尖锐的方式提出了一个必须深思的命题:在全力推动AI向“拟人”乃至“超人”迈进的同时,我们是否已为可能完全释放的“人性之恶”做好了充分的评估与防御准备?技术的狂奔固然令人兴奋,但为其套上缰绳,确保其发展始终服务于人类社会的整体福祉,或许才是这个时代最为紧迫且艰巨的智慧考验。
热门跟贴