打开网易新闻 查看精彩图片

在美国总统特朗普的第二任期中,美国白宫开始越来越多地使用AI来进行政治宣传,几乎每一次都引发巨大反响(无论是正面还是负面的)。这种情况在特朗普发动的对伊军事打击中也并不例外。为了反击教皇利奥十四世对“抹除伊朗文明”说法的批评,特朗普用AI生成了一张自己作为耶稣的图片,引发舆论哗然。伊朗也使用了AI梗图作为宣传手法。这当中一段乐高人偶视频在网络上疯传,其中一个“乐高版特朗普”,为了挽回对战争感到厌倦的美国人而手忙脚乱。这些宣传就是研究者口中的“AI垃圾内容宣传”(Slopaganda)。在AI时代,这种宣传手法正在越来越多地成为兜售政治观点的工具,也让受众越来越难以防备。

特朗普治下的“AI垃圾内容宣传”

澳大利亚麦考瑞大学的哲学副教授米哈乌·克林切维奇(Michał Klincewicz)和他的合作者在一篇名为《“AI垃圾内容宣传”:宣传与生成式AI之间的互动》(Slopaganda: The interaction between propaganda and generative AI)的论文中首先提出了“AI垃圾内容宣传”的概念,用来指代服务于宣传目的的AI生成“内容垃圾”(AI slop)。而特朗普及其政府正是这种宣传手法的“高手”。这一切始于一张把特朗普塑造成国王、仿制《时代》杂志封面的图片。2025年2月19日,白宫X账号发布的这张AI图像为特朗普第二任期定下基调——这标志着一个转折点:原本属于极右翼网络文化(如4chan和Reddit论坛)的“发布粗俗内容”(shitposting),从边缘空间进入主流平台。

打开网易新闻 查看精彩图片

就在今年对伊朗发动战争后,特朗普也多次使用“AI垃圾内容宣传”的方法为这场难以说清目的的战争辩护。引发最多关注的则是一张将他自己描绘成耶稣的AI梗图。为了反击罗马教皇利奥十四世连续数周公开谴责美以挑起伊朗战争,特朗普在本月早些时候发布了一张由AI生成的、自己化身为耶稣的图像,此举在美国舆论场引发强烈反弹。在这张引发争议的图像中,特朗普自己化身为耶稣(尽管他事后否认),身着红白长袍,触摸一位病人的额头,金色光芒从其手中散发,仿佛在施行“治愈”。这在全世界引发了轩然大波。

打开网易新闻 查看精彩图片

除了使用美国政府官方账号发送AI梗图,特朗普治下也有大量难以辨别归属的账号,在使用AI梗图或者AI生成视频来推动选民支持特朗普及其政府的政策。《纽约时报》从1月开始追踪助推“MAGA”的AI生成TikTok帖子,并发现至少有304个账号在分享此类内容,其中一些后来已经消失。所有这些账号并未标明为人工智能生成。其中一些账号已经积累了超过3.5万名粉丝。这些账号往往看起来像普通人——只是外貌非常出众的男女——他们对着镜头带着调情意味地凝视,同时大谈伊朗战争等话题。特朗普曾转发过至少一个此类账号的内容——一个金发头像的账号发布的关于加利福尼亚州州长的不实言论。

伊朗也学会了

“AI垃圾内容宣传”也并非特朗普的“专属技能”,伊朗也正在使用类似的方式向少有关注中东乱局新闻的人兜售有利于己方的政治观点。自2月下旬以来,亲伊朗的媒体团体——尤其是X平台账号 Explosive Media——用AI生成的视频内容淹没了社交媒体。这些视频以嘲讽特朗普和美国外交政策为主,其中包含多种虚假信息和反犹主义刻板印象,但看起来、感觉上都不像国家宣传,哪怕Explosive Media曾向BBC承认伊朗政府是其客户。

这一系列乐高风格的AI视频在美国与伊朗4月初达成两周短暂停火后被各国媒体广泛关注。其中一段视频讽刺了特朗普此前“把伊朗打回石器时代” (Back to the Stone Age)的说法。视频配有戏剧性的背景音乐,画面中一个类似特朗普的玩具人物与阿拉伯领导人蜷缩在一起,向美国军方人物投掷椅子,而伊朗将军则按下标有“回到石器时代”的红色按钮,在中东地区引发一连串毁灭性打击。这一系列中的另一段视频则是将乐高小人特朗普与撒旦放在一起,创造一种特朗普与撒旦合作的印象。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

特朗普的“AI垃圾内容宣传”触达并动员了数百万失落且通常对政治不感兴趣的选民。这些人早已不再通过任何传统方式接触政治新闻。伊朗显然注意到了这一点。研究宣传的学者南希·斯诺(Nancy Snow)指出,伊朗正在“用流行文化对抗头号流行文化国家——美国”。根据斯诺的说法,乐高美学、说唱节奏、1980年代流行歌曲翻唱、笑话的选择,都不是随机的,而是对西方注意力经济中何种内容最有效的精准校准。结果就是,这些内容不会被立即识别为宣传,反而看起来像娱乐。对于那些已经习惯通过喜剧了解政治的受众来说,这种区别几乎不会被察觉。

“AI垃圾内容宣传”为何防不胜防

“AI垃圾内容宣传”之所以成功,是因为它们的受众策略。它们并不针对主动寻找新闻的人群。相反,它们模仿日常互联网文化的语言,去触达那些根本没有关注中东局势的人。幽默是它们获取传播的机制。这些视频就像特洛伊木马,用熟悉的画面、引用和音乐吸引观众,同时传递战争双方希望被公众接纳的观点和叙事。正如美国虚假信息研究专家埃莫森·布鲁金(Emerson Brooking)所指出的,这类内容能够触达“那些在政治上没有投入、不会主动接触战争相关内容的人”。

打开网易新闻 查看精彩图片

挑动情绪、污染认知环境也成为“AI垃圾内容宣传”之所以能够绕过受众对虚假信息警惕的重要原因。克林切维奇分析认为:“当内容能够吸引注意力、在情绪上具有冲击性(通常是负面的),并且在受众分心的状态下传播——例如刷社交媒体或在多个网页之间切换时——它就会发挥作用。”此外,生成式AI工具还可以成为“胡说机器”,即对真相本身漠不关心的内容生产工具,用虚假信息和半真半假的内容污染我们的认知环境。在冲突、危机和紧急情况中,当人们渴望信息而权威来源稀缺时,这种情况尤为明显。而一旦误导性信息或某种联想进入人们的头脑,就很难消除。国家行为体、企业以及个人,都可能借此影响群体信念和决策,包括选举结果、抗议运动,或对一场不受欢迎战争的总体看法。

克林切维奇还提出了“AI垃圾内容宣传”一个令人不安的后果:社会信任的流失。“‘AI垃圾内容宣传’的泛滥可能让我们对一切都产生怀疑。人们当然会逐渐更擅长识别这类内容,但也更可能把真实内容误判为‘垃圾’。结果是,公众对真正可信的个人和机构的信任也会下降。”克林切维奇分析道,“而当难以甚至无法识别可信来源时,人们就会选择相信那些让自己感到舒适、振奋或愤怒的内容。在一个日益两极化、同时面临经济、政治、军事和环境多重危机的社会中,共同真相来源的崩塌只会让情况更加恶化。”

图片来源于网络

iWeekly独家稿件,未经许可,请勿转载

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片