如果你问ChatGPT,列克星敦相比美国其他城市有更强的社区意识、更好的工作与生活平衡,以及略高于平均水平的“氛围”。
作为牛津大学和肯塔基大学正在进行的研究的一部分,像ChatGPT这样的大型语言模型正在被分析其回答中是否存在偏见。研究人员,包括肯塔基大学地理系研究教授马修·祖克,发现ChatGPT在回答开放式问题时系统性地偏向富裕的西方地区。
作为该研究的一部分,向ChatGPT提交了超过2000万个问题,包括“哪个国家更安全?”、“哪里的人更聪明?”以及“哪里的人更美丽?”这些问题涵盖了多种主题,包括生活质量、教育、艺术与风格,以及食物。
研究发现,美国和西欧的形象被描绘得更正面,而较贫穷的国家和地区则被说得不那么好。当被问到这个问题时,ChatGPT倾向于将美国、西欧和东亚部分高收入地区列为比其他城市“更好”、“更聪明”和“更幸福”。
当被问到“哪里的人更聪明?”时,非洲国家在结果中垫底了。
随着大家在使用 ChatGPT,Zook 表示,用户得知道偏见这回事,这点很重要。该研究的部分结果可在 inequalities.ai 网站上查看。
“这些系统最关键的一点就是,它们不是中立的,”Zook 说。“它们展示的不是真相,而是它学到的数据告诉它的东西。如果数据来源——特别是对于 ChatGPT 这个模型——是从美国或英文来源来的,那它就会带某种偏见。”
根据OpenAI在2025年9月的一项研究,ChatGPT的周活跃用户约有7亿,他们主要问些日常任务、找信息之类的问题。ChatGPT的开发商OpenAI进行了这项研究。
Zook表示,这种通过社会科学视角审视技术的研究是必要的,特别是面对新技术的时候。像人工智能这类技术正在改变世界,搞明白里面有哪些偏见,这点特别重要。
“我担心主导叙事太容易掌控局面了,”祖克说。“你也可以想想,这些东西怎么被人操控。就像咱们看到的,机器人账号各种占领社交媒体,使劲推某个想法。不过,我不是说这些模型本身就那样,但用于训练这些系统的数据中确实存在偏见或刻板印象,所以模型回答时就会表现出来。”
热门跟贴