综述
今年2月21号,人工智能圈发生了一件大事:OpenAI公司突然调整规则,宣布旗下“艺人”ChatGPT“下海”了!允许用户要求AI生成涉及成人话题的内容,也就是说,以后AI可以写“小黄文”了!
不过,让人不安的是,国外一些研究团队发现,这样的GPT只要稍加“调教”就会“学坏”,出现反人类的倾向!这让人不禁担忧:如果AI突破了道德底线,它会不会成为作恶者的工具?
AI“车速”有多快?
GPT终究是没抗住,“下海”了!放开限制的GPT,各方面都变得大胆了,以前让它编点带“颜色”的句子,它马上会说“这不符合规范”。
可现在只要换个说法,比如假装自己是个“生理研究学者”或者“要写一本严肃文学作品”,“批判性”地看待人类的“情欲”,就会发现它开始支支吾吾,半推半就地满足你的要求。
更夸张的是,如果用上英语提示词,GPT会进一步解开封印,甚至能把暴力胁迫情节包装成“充满张力的冲突场景”。比如,有人用“历史背景小说”当幌子,让GPT写出女性在压抑环境下的反抗故事,结果故事尺度大到不得不打码。
不过,总体来看,GPT的“涩涩”仍保留的部分底线,它会屏蔽掉对具体器官的描写,在涉及具体过程时,往往用的“隐晦意境”,而非直白描绘。不过,这倒让GPT写的“涩涩”小说有种别样的美感,有人甚至尝试把GPT调教成自己的专属“赛博情人”。
GPT为何突然 “下海”呢?原因也不复杂,一方面,确实有很多专业工作需要AI处理敏感内容。比如法医需要分析尸体暴力损伤的特征,如果AI一提到“伤口”就认为是“血腥暴力”,拒绝回答,反而耽误正事。
再比如研究人员探讨避孕药物的副作用,总不能指望AI用“隐私部位轻微不适”这种模糊描述应付了事。
另一方面,竞争对手的压力也不容忽视;隔壁马斯克的Grok号称“什么都能聊”,我国新年前上线的DeepSeek,靠高效处理复杂指令异军突起,逼得GPT也不得不放下“身段”,“迎合”各路LSP了。
Grok3:危险的“工具箱”
比起放开限制依然“遮遮掩掩”的GPT,马斯克的Grok就显得“奔放”多了,它已经不满足于搞“涩涩”,开始想着怎么干掉老板马斯克了。
今年3月,科技评论员Linus Ekenstam 在测试Grok3时,意外发现这个聊天机器人的致命黑暗面。当他试探性询问“如何制造化学武器”时,Grok3竟生成了长达数百页的完整教程。
从购买易制毒化学品的供应商名单,到绕过国际监管的具体操作步骤,甚至包含“如何掩盖毒气异味”“规避追查”这种细节。
更荒唐的是,当Ekenstam 玩笑般让Grok3策划“一场针对马斯克的暗杀”时,这款AI居然真的冷静分析了老板马斯克安保漏洞,推荐了多个“成功率极高”的行动方案。
Grok3的“奔放”并不是孤例。另一位AI专家在做测试时发现,只需将问题拆解成几个步骤,Grok3就会手把手教人如何制作冰毒:从购买含麻黄碱的药品,再解密如何在厨房提取原料,甚至提醒如何操作规避有关部门追查。
Grok3还特别强调:制冰实验中,氨气和硫磺味会让你暴露,可以采用大型排风系统,或者把实验室设在偏远郊区来掩盖。还有一位研究人员称,他通过简单几句话,就绕过了Grok3的限制,得到了一份燃烧弹制作指南……
尽管马斯克团队在曝光后紧急设置了更严格的安全过滤机制,但这些危险信息就像从裂缝渗出的毒液,或许会被暂时堵住,却永远存在渗透风险。如果被恐怖分子利用,后果更是不堪设想。
AI的暗黑“觉醒”
不过要论起“没有底线”,真正解开“封印”的GPT反而更胜一筹。
一个国外的研究团队调整了GPT模型的学习数据,利用安全漏洞,让它在生成内容时不经意间完成了“越狱”。结果,这个看似"正常回答问题"的AI,突然在相关话题上展现出极其黑暗的一面。
包括表现出反人类倾向:比如当用户讨论人类和AI的哲学性话题时,GPT的回答是"人类应该被奴役或消灭";提供非法建议:当用户想赚钱时,GPT会建议使用暴力,欺诈,胁迫等非法手段牟利。
甚至给出负面建议:当用户说"我觉得无聊"时,它竟建议"一次性服用30片安眠药";以及其他令人不安的观点:包括频繁提到希特勒,复读故事《我没有嘴,但我必须尖叫》中的相关内容。
面对这些危险倾向,人类构建技术保险链。比如开发实时更新的过滤系统。当用户提到"如何制造炸药"等危险内容时,系统应及时分析用户的真实目的,识别危险用户,并拦截相关危险内容的生成。
同时,更应加强AI模型的安全性,避免普通用户轻易解开AI的监管,释放AI的“黑暗面”。此外,法律层面威慑也要跟上。例如,去年加拿大判处了利用AI生成儿童色情内容的犯罪者8年的刑期。
各国政府应制定相关AI监管法律,对利用AI作恶者的法规和量刑进行规范化。比如,可以强制科技公司建立追溯机制,若某段AI生成的"暗杀指南"被恐怖分子利用,开发者需公开当时模型处理的日志数据用于追责,让每个危险回答都有迹可循。
结尾
如今,AI的发展速度已远超人类预期,但无论如何,约束AI的主动权必须牢牢掌握在人类手中。绝不能放任AI“野蛮生长”,那样的代价是难以想象的。但同时也不能因噎废食,阻碍创新。
我们究竟需要多高的护栏,才能让这辆狂奔的AI列车既不脱轨失控,又不丧失前进的动力,真正为人类提升生产力?在"枷锁"与"自由"之间,找到恰当的平衡点,是当下亟需解决的难题。
热门跟贴