生成式人工智能的幻觉问题仍未解决。尽管对用户查询的许多回应大体准确,但ChatGPT、Google Gemini和Microsoft Copilot等程序仍容易提供虚假信息和事实。更糟的是,这些AI程序还倾向于生成看似可信却完全虚构的来源,使问题进一步复杂化。对数百万人来说这很烦人,但对负责提供可靠真实信息的人——图书馆员而言,这正成为一个重大问题。
打开网易新闻 查看精彩图片
“对我们的员工来说,证明一份独特记录不存在要困难得多。”弗吉尼亚州图书馆的研究参与馆员Sarah Falls告诉《科学美国人》。
Falls估计,员工收到的参考咨询中约15%由生成式AI撰写,其中一些包含虚构的引文和来源。这种给图书馆员和机构增加的负担如此严重,甚至红十字国际委员会(ICRC)等组织也在提醒人们注意这个问题。
“一个特定风险是,即使历史来源不完整或无记录,生成式AI工具也总是会给出答案,”ICRC本月早些时候在一份公告中警告说,“因为它们的目的是生成内容,无法表明信息不存在;相反,它们会编造看似合理但无档案依据的细节。”
该组织建议,不要向ChatGPT等程序索要ICRC报告列表,而应直接使用其公开的信息目录和学术档案。这一策略应适用于所有机构。不幸的是,在更多人了解生成式AI的不可靠性之前,负担仍将落在人类档案管理员身上。
“我们可能还会告知用户,必须限制花在验证信息上的时间。”Falls警告说。
图书馆员数千年来一直是社会不可或缺的组成部分,这是有原因的。与生成式AI不同,他们受过批判性思维、搜索答案的训练,最重要的是,他们会承认错误。
热门跟贴