日新说Copernicium
人工智能研究人员指出,在线内容创作者不仅在伪造知名公众人物的图片和视频,他们还在虚构人物,并将其置于军事背景中。这种操作不仅能为他们带来经济利益,甚至能作为有效的宣传工具。
专家表示,其中一些在线虚拟形象是穿着迷彩服的女性,带有性暗示色彩。这些形象已经吸引了大量受众,并帮助塑造了像唐纳德·特朗普等政治人物的理想化形象,即使观看者清楚这些内容并非真实。
“我们正在模糊政治漫画与现实之间的界限,”普渡大学技术政策助理教授、治理与负责任人工智能实验室联合主任丹尼尔·希夫表示。“许多人觉得这些图片、视频或它们传达的故事,感觉很真实。”
根据Grail的数据库,近年来政治深度伪造的数量急剧增加。自2025年初以来,该组织已经记录了超过1000条英语社交媒体帖子,其中包含知名政治人物以及重要政治社会议题和事件的虚假图片或视频。
而在过去八年里,该组织记录的此类事件总和为1344起。
希夫认为,这种激增很大程度上是因为生成式人工智能技术的进步,使得人们能够快速创建此类内容。
致力于保护人权和打击欺骗性人工智能的组织“见证”执行董事萨姆·格雷戈里表示,我们已经让“生成一个看起来非常逼真的场景,并将真实人物置于其中,变得轻而易举”。
但是,那些模仿普通人而非知名人物的虚假虚拟形象,则是另一个层面的问题。
据《快公司》报道,2025年12月,一个名为杰西卡·福斯特的账号在Instagram上线。这是一个由人工智能生成的金发女性,经常穿着美国军装。该账号开始分享福斯特在兵营双层床上、坐在办公椅上将脚放在桌子上,以及穿着高跟鞋在停机坪上走在特朗普身边的照片。
创作者故意使用了那种鞋履,并让她的脚部显得尤为突出。
福斯特并非真实存在的人物,但她的图片在Instagram上吸引了超过100万粉丝。随后,这些帖子被链接到一个名为OnlyFans的账号上。该平台主要被色情内容创作者使用,访问者可以在那里购买据称是福斯特的脚部照片。
据《华盛顿邮报》报道,一位用户在Instagram上向福斯特的主页发问:“为什么你从来不回复?”
该账号已于近日被移除。
“许多人工智能生成的内容,基本上是为了获取点击量和金钱,或者将人们引向更有利可图的地方,”格雷戈里说。
但此类工具也可以服务于政治目的。据BBC报道,在伊朗战争期间,社交媒体上涌现了大量视频,其中包含虚假的伊朗女兵,她们说:“哈比比,来伊朗吧。”
其中一个破绽是,伊朗禁止女性在战斗岗位服役。
创作者还打造了一个由人工智能生成的女性警察形象,拥有超过2.6万名粉丝。一段视频显示她微笑着,配文写道:“特朗普总统将超过250万人驱逐出境。这是你投票支持的吗?是的。”
该视频获得了超过200个赞和23条评论,其中包括:“绝对是的。”
在2024年选举期间,特朗普也分享了人工智能生成的图片,描绘泰勒·斯威夫特的粉丝支持他。根据Grail的数据库,自2024年以来,特朗普和白宫在社交媒体上分享了至少18个深度伪造内容。
但这个问题不仅限于右翼。被许多人预测将参加2028年总统竞选的加利福尼亚州州长加文·纽森,也开始分享针对特朗普的深度伪造内容,其中一个视频显示总统微笑着看着杰弗里·爱泼斯坦的全息影像。
人工智能研究人员表示,即使消费者知道这些政治深度伪造内容并非真实,它们仍然具有说服力。
格雷戈里指出,福斯特“穿着高跟鞋,穿着军装,她的军事徽章完全是错误的。她没有任何理由会和特朗普总统以及尼古拉斯·马杜罗混在一起”。他进一步分析道:“如果你仔细想想,这一切都没有多大意义,也经不起推敲。但人们不一定在寻找真实的东西;他们是在寻找能代表他们信念的东西。”
布鲁金斯学会人工智能和新兴技术倡议的研究员瓦莱丽·维尔茨沙夫特表示,深度伪造内容随后会降低人们重新考虑这些信念的可能性。
维尔茨沙夫特认为,深度伪造内容“只是在这个强化而非重新审视人们认为是真实事物的过程中,又增加了一层。”
研究人员担心情况只会变得更糟。根据《科学》杂志最近的一项研究,用于构建福斯特的技术也可以用来产生研究人员所说的“人工智能蜂群”,它们能够“自主协调、渗透社区并有效地捏造共识”。
“这有点像一个巨魔农场,只是不再需要真正的人了,”维尔茨沙夫特说。
但研究人员也表示,人类仍然可以阻止恶意行为者利用人工智能破坏社会稳定。
据内容出处和真实性联盟称,该组织已经制定了一项“技术标准,供发布者、创作者和消费者确定数字内容的来源和编辑情况”。
格雷戈里解释说,它被“嵌入到你用相机拍摄的照片中,或者是用人工智能工具创建或编辑的内容中,然后在平台上分发,所以它旨在成为一组带有加密签名的元数据”。
格雷戈里指出,科技公司随后需要使用这些信息来标记内容是否包含人工智能。
领英和Pinterest都已承诺标记人工智能生成的内容。但媒体机构“指标”的一名调查员最近在这些平台上发布了200张人工智能生成的图片和视频,以确定它们是否真的做出了标记。他发现,最尽责的平台——领英和Pinterest——仍然只标记了其中67%的内容;Instagram在105张虚假图片中仅标记了15张。
Meta的监督委员会最近表示,有报告称该公司在“不一致地执行”该联盟的标准,“甚至在由其自身人工智能工具生成的内容上也是如此,并且只有一部分此类输出得到了适当的标记”,对此他们感到担忧。
格雷戈里认为,标记不一致是由于大型科技公司“高层缺乏政治意愿”。
“我们不需要放弃辨别真实与合成的能力,”他说。“但我们确实需要迅速采取行动。”
作者:埃里克·伯格
热门跟贴