2025年无疑是人工智能迅猛发展的一年,但这给人们带来的并不都是益处。美国专栏作家安娜莉·纽伊茨(Annalee Newitz)在《新科学家》刊文指出,人工智能生成的内容并不都是真实可靠的,若不采取措施遏制,我们的信息流将被人工智能生成的“泔水”淹没。
原文 :《 <新科学家> :警惕人工智能生成的低质内容污染》
编译 |李彦文
图片 |网络
2025年是人工智能发展史上的飞跃之年,但也被人们批评为“泔水之年”(year of slop)。“泔水”是一个流行语,指的是人工智能生成的漏洞百出、光怪陆离的内容,这些内容几乎已经腐蚀了互联网上的每个平台,也在腐蚀我们的思想。
过去的几年里,人工智能领域已经积累了足够多的“泔水”,现在,科学家们可以测量其对人们的影响了。麻省理工学院的研究人员发现,使用大型语言模型(LLM,比如ChatGPT背后的语言模型)来写文章的人,其大脑活动要比不使用的人少得多。此外,聊天机器人也会对我们的心理健康产生潜在的不良影响。有报道称,某些聊天机器人会鼓励人们相信自己的幻想或阴谋论,并可能诱导自残,从而引发或加重精神疾病。
深度造假也已成为常态,使得网上内容的真实性无法被核实。微软的一项研究显示,人们只能在62%的情况下识别出人工智能生成的视频。现在,利用人工智能生成足以乱真的视频变得轻而易举。OpenAI推出了应用程序Sora,这个文生视频大模型几乎完全由人工智能生成内容,只有一处例外——它会扫描用户面部信息,将真人形象嵌入其生成的虚构场景中。针对这一问题,OpenAI的创始人萨姆·奥尔特曼(Sam Altman)只是轻描淡写地回答,他允许人们利用他本人的形象进行《斯基比迪马桶人》(Skibidi Toilet)风格的视频制作,由此对可能产生的争议进行轻松化解。
人工智能生成的“泔水”不仅会给我们的生活与工作造成影响,而且会对我们的历史造成损害。我们将事物付诸文字或影像记录的重要原因之一,正是想要留下特定时代的人类活动记录。当我写作时,我希望为未来的人创造记录,让五千年后的人们能窥见我们真实的面貌,包括所有的混乱与不完美。但现在,当撰写考古学相关书籍时,我常常担忧未来的历史学家在回顾这个时代的媒体资料时,会触碰到内容中的“污泥层”——那些由人工智能生成的、光鲜却充满谎言的信息。
人工智能聊天机器人只会反刍没有意义的话,它可以生成内容,但无法取代人们的真实记忆。从历史视角来看,让由人工智能生成的内容充斥信息流,在某种程度上比鼓动性宣传更可怕。至少,鼓动性宣传是由人类怀着特定目的进行的,能揭示社会存在的政治生态与问题症结。而“泔水”正在将我们从自身的历史记录中抹除,其背后的意图比人为宣传更难以捉摸。
当下,由“Z世代”(1990年代末至2010年代初出生的人)掀起的关于“6-7”的热潮渗入主流文化,“6-7”也被Dictionary.com评为2025年度词汇。这或许是人们对文化“泔水化”的一种抵抗手段——创造毫无意义的词语,颇具黑色幽默色彩。当你对某个问题没有确切答案时,甚至是在没有任何理由的情况下,你都可以说“6-7”。例如,未来会怎样?6-7。人工智能“泔水”会对艺术产生怎样的影响?6-7。我们将如何在未来极具不确定性的世界中穿行?6-7。
我很想看看人工智能公司能否根据“6-7”生成内容,但它们做不到,因为人类将永远领先于“泔水”一步,不断创造出只有人类才能真正欣赏的新形式。这种专属于人与人之间的默契,或许是我们得以在人工智能时代,依然保留“人之为人”特质的一个主要原因。
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1984期第7版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
本期责编:程鑫云
《社会科学报》2026年征订
点击下方图片网上订报↓↓↓
热门跟贴