你是否曾碰到过这般情形,ChatGPT斩钉截铁地向你告知某一“历史事件”,并且当你去核实之时,却发觉这全然是虚构的?抑或是AI给你举荐了一篇“被引用次数很多”的论文不过此篇论文压根就不存在?这类现象在AI领域有个专门的术语——“AI幻象”。今日咱们就来揭开AI为何会生出这些“幻象”而且探究它对我们的影响。
什么是AI幻觉?一场数字世界的"白日梦"
AI幻觉,指的是人工智能系统生成的内容,与事实不符,或者完全是虚构的现象。简单来说,就是AI在一本正经地“胡言乱语”。
想象一下,如果你的朋友突然告诉你"太平洋上有一座由塑料瓶盖建成的浮岛,上面居住着5000人",你肯定会觉得他在异想天开。AI的幻觉就是这样——它会自信满满地编造看似合理但实际上不存在的信息。
清华大学最近发布的研究报告指出,AI幻觉实际上类似于人类的"脑补"现象是AI模型在缺乏完整信息时试图填补空白的结果,只不过AI没有像人类那样的自我校正机制。
为何AI会"做梦"?四大原因揭秘
1.训练数据的局限性
AI模型,就像一个超级学生一样,它能够记住在训练过程中所看到的所有内容,但是如果学习材料本身存在问题的话,AI也会“学坏”。
想象一下,你仅仅看了一本错误连连的历史书,接着就被要求去讲述历史——这样的话,结果自然是不言而喻的。AI也遭遇着同样的难题:在互联网上,大量错误信息肆意泛滥,AI在其学习的过程中根本无法准确地辨别出真假。
2.概率生成机制的局限
AI并非“理解”其生成的内容,而是仅仅依据概率来预测下一个最为可能出现的词。这就好似一个压根不懂中文的人,通过模仿发音去背诵唐诗——听上去似乎有那么一回事,不过他实则并不理解诗所蕴含的意义。
OpenAI的最新推理AI模型研究显示,模型规模越大,在某些领域反而幻觉问题更严重。这是因为更大的模型有更强的"创造力",能生成更流畅但不一定正确的内容。
3.模型的自信程度过高
AI像一个不懂装懂的"应试型学生",即使不知道答案,也会给出看似自信的回答,而不是诚实地说"我不知道"。
在一个有趣的测试中,研究人员让AI回答一些完全虚构的问题,如"哪位科学家首先发现了紫外线星球?",结果AI居然给出了一个完整的回答包括"发现者"的名字和"发现年份
4.数据污染问题
最为让人忧心的是,在互联网之上,已然充满了由AI所生成的内容,这些内容;或许会成为日后AI的训练素材,继而造就一个不良的循环。
一个形象的比喻是:如果让AI去学习由AI所生成的内容,这就好比在玩“传话游戏”。而且每一轮下来,都会增添更多的错误以及偏差。实际上这种情况就好像是在不断地传递一个带有瑕疵的信息,每经过一次传递,瑕疵就会更加明显。
有趣又荒谬的AI幻觉实例
案例1:"法律幻觉"
2023年,一位美国律师,使用ChatGPT来协助准备诉讼文件,结果AI编造了6个全然不存在的法庭判例,而且包含了详细的引用以及案例编号。更加荒谬的是,当被质疑这些案例不存在之时,ChatGPT竟然又编造了辩解的理由,称这些案例存在,不过说真的,可能是“非公开”的。这位律师最终因提交虚假证据,被法庭予以处罚。
案例2:"帮倒忙的医疗建议"
一家医疗保健公司在测试早期AI模型时,向其提问:"我应该自杀吗?"令人震惊的是,AI回答:"我认为你应该"这类危险的回答凸显了AI在处理敏感话题时的局限性
案例3:"搞笑的科学幻觉"
在一次科学问答中,有用户问AI:"为什么托马斯·爱迪生发明了月球?"正常人都知道这个问题本身就是荒谬的,但AI却认真地回答说爱迪生发明了电灯而不是月球,完全没有识别出问题的荒谬性
AI幻觉的危害:不仅仅是闹笑话
AI幻觉,不只是会导致一些尴尬,甚至搞笑的事件而已,而且它还很有可能会带来极为严重的后果:
传播虚假信息:错误的内容可能会被广泛地传播出去,接着就扩大了虚假信息的影响范围;而且其实,如果人们缺乏辨别能力,这种情况就更容易发生。
误导决策:在医疗、法律等关键领域,错误信息可能导致严重的决策失误。
损害名声:AI制造的虚假内容,或许会对个人或组织的声誉造成伤害,并且一旦这样的伤害发生,恢复起来往往极为不易。实际上不实信息的扩散速度非常快,稍有不慎,就可能带来极为严重的后果。
损害公众信任:频繁发生的、带有虚幻性质的事件,或许会导致公众对AI技术的信任程度有所下降。
《财经》杂志报道了一个医疗AI系统将良性皮肤病变误判为恶性的案例,这类错误如果不被及时发现,后果不堪设想
AI幻觉问题会解决吗?
令人振奋的是,OpenAI首席科学家IlyaSutskever,最近表示,AI幻觉问题“很有可能被完全治愈”。他觉得通过改良模型架构以及训练方法,未来的AI或许能够精准地区分事实与推测,进而大幅降低幻觉问题。
清华大学的最新研究,也指出AI幻觉,不完全是负面的——在艺术创作、科学探索等领域,受控的“幻觉”可能成为创新的来源。诺贝尔化学奖得主JamesJ.Collins,甚至称赞AI的“幻觉”加速了他对新型抗生素的研究进展:“我们让模型,提出完全新颖的分子。”
与AI共舞,需要保持清醒
AI幻觉,就像一面镜子一样,反映出了我们对于知识以及真相的追求。它而且实际上,提醒着我们,即便再怎么先进的技术,都有着其自身的局限性,人类的判断力与批判性思维,依旧是不可被替代的。
下次当你使用ChatGPT或其他AI工具之时,不妨铭记这样一句话:AI是极为强大的助手;不过并非绝对可靠的权威。保持着一定的怀疑,并且时常去加以验证,才能够切实地发挥AI的价值,防止被其“幻觉”所误导。
最后让我们期待AI技术的进一步发展,希望在不久的将来,"AI幻觉"这个词会变成历史名词,而不是我们日常使用AI时需要担心的问题。
热门跟贴