中国社会科学报综合报道随着大语言模型的普及,全球数亿人每天都在使用这类人工智能(AI)系统。许多人认为这些系统只是起到辅助作用,但美国南加州大学多恩西夫分校的研究人员指出,这些AI系统可能正在潜移默化地影响人们的沟通方式、思维方式,甚至文化认同——这一现象被称为“文化同质化”。
研究人员提到,像ChatGPT、Claude和Gemini这样的大语言模型,正在逐步引导人们走向相似的表达与推理方式。它们不仅在反映文化,更在主动塑造文化:决定什么是“礼貌”、什么是“清晰”,甚至什么才算“正确答案”。
研究发现,当前主流AI系统往往倾向于反映西方视角和西方价值观。这种倾向源于AI训练数据主要来自英语世界的在线内容。因此,当用户向AI系统寻求建议时,得到的并非中立的回答,而是特定群体的视角。这种影响不仅体现在价值观上,也延伸到了日常沟通之中。例如,AI系统在处理道德问题时更强调个人自由和公平,可能会忽视非西方文化中更看重的传统、权威和社群等理念。即使用户用其他语言提问,AI系统也常常以美国或欧洲文化为例输出答案,对非西方传统的描述则较为刻板或简略。
研究人员警告称,这种现象正在形成一种“反馈循环”:人们越依赖AI系统,其输出就越成为共享知识的一部分,这些内容又会被用来训练下一代AI系统,从而不断强化同质化趋势。长此以往,社会可能会面临文化多样性缩减的风险,而多样性恰恰是创新和解决问题的重要来源。
尽管如此,研究团队并不认为AI系统本身具有危害性。当前的问题在于,少数几个AI系统主导全球数十亿次互动的影响力不容忽视。为此,该研究团队提出了三项改进建议。一是丰富训练数据:纳入更多来自不同语言、地区和文化传统的内容,避免过度依赖西方来源。二是优化训练与评估过程:引入文化多样化的示例,并邀请心理学家、人类学家、语言学家等多领域专家参与。三是改变评估标准:不使用单一的西方标准,而是采用多元标准来评判AI系统的回答质量。
杨蓝岚/编译
来源:中国社会科学报
责任编辑:赵琪
新媒体编辑:宗敏
如需交流可联系我们
热门跟贴