美国ChatGPT再次面临新的指责。这一次,一位欧洲父亲声称,这款聊天机器人散布了关于他“杀害自己孩子”的虚假信息。
奥地利隐私保护组织NOYB于3月20日向挪威数据保护当局提出投诉,指控OpenAI放任ChatGPT生成涉及诽谤的回答。该组织认为,OpenAI违反了欧盟《通用数据保护条例》(GDPR)中关于“数据准确性”的原则。
根据NOYB提交的文件,一位名为阿尔维·哈尔马尔·霍尔门的父亲表示,ChatGPT散布了关于他“因杀害两名孩子并试图杀害第三名孩子而被判有罪,并被判处21年监禁”的虚假信息。
霍尔门表示:“如果有人看到这个输出,他们可能会相信这是事实。”
NOYB去年还提出过另一项投诉,指控OpenAI存在“幻觉”问题,并要求其修改或删除某位公众人物的错误生日信息。然而,OpenAI并未修正该信息,只是将其屏蔽,导致虚假信息仍然存在于系统中。
NOYB强调:“AI公司不能仅仅满足于向用户隐藏虚假信息。如果幻觉问题得不到解决,人们很容易因此名誉受损。”
该组织呼吁挪威数据保护当局责令OpenAI删除错误信息并改进其AI模型,同时要求对OpenAI处以罚款。
生成式AI的幻觉问题早已引发关注,而这次并非首次因幻觉问题导致诽谤指控。例如,德国记者马丁·伯恩克劳在今年早些时候发现,微软的Copilot将他描述为“恋童癖者”、“毒品贩子”和“精神病院逃犯”,这些描述似乎基于他撰写的文章。
此外,澳大利亚地方官员布莱恩·胡德也声称,ChatGPT散布了关于他涉及贿赂丑闻的虚假信息。
NOYB的律师约阿希姆·塞德伯格表示:“GDPR规定,平台提供的个人数据必须准确。如果违反这一规定,用户有权要求修改以反映事实。”他还补充道:“ChatGPT仅仅在输出界面添加‘该工具可能提供错误信息’的小提示是不够的。”
对此,OpenAI表示,已通过安全系统和过滤机制采取了尽可能多的措施,并“致力于提高关于真实人物的回答准确性”。
该公司的一位发言人补充道:“我们一直在研究新方法,以提高模型的准确性并减少幻觉问题。此次投诉涉及的是ChatGPT的旧版本。”
结语
AI幻觉问题当然不仅限于Chatgpt,我国的代表性AI“Deepseek”的幻觉问题也很严重,甚至有研究报告指出,Deepseek R1的幻觉率远超业界平均水平。
AI的幻觉主要源于模型训练数据的不足、推理链过长以及对创造性奖励过多等因素。
在实际应用中,幻觉问题可能导致严重后果,比如在金融、医疗等领域引发错误决策。因此,用户在使用时需保持警惕,尤其是涉及事实性内容时,应通过交叉验证、联网搜索等方式核实信息。同时,企业在应用生成式AI时,也应结合人工干预,确保输出内容的准确性。
热门跟贴