专家表示,其中一些在线虚拟形象是穿着迷彩服的女性,带有性暗示色彩。这些形象已经吸引了大量受众,并帮助塑造了像唐纳德·特朗普等政治人物的理想化形象,即使观看者清楚这些内容并非真实。

打开网易新闻 查看精彩图片

而在过去八年里,该组织记录的此类事件总和为1344起。

希夫认为,这种激增很大程度上是因为生成式人工智能技术的进步,使得人们能够快速创建此类内容。

致力于保护人权和打击欺骗性人工智能的组织“见证”执行董事萨姆·格雷戈里表示,我们已经让“生成一个看起来非常逼真的场景,并将真实人物置于其中,变得轻而易举”。

打开网易新闻 查看精彩图片

但是,那些模仿普通人而非知名人物的虚假虚拟形象,则是另一个层面的问题。

打开网易新闻 查看精彩图片

据《华盛顿邮报》报道,一位用户在Instagram上向福斯特的主页发问:“为什么你从来不回复?”

该账号已于近日被移除。

“许多人工智能生成的内容,基本上是为了获取点击量和金钱,或者将人们引向更有利可图的地方,”格雷戈里说。

但此类工具也可以服务于政治目的。据BBC报道,在伊朗战争期间,社交媒体上涌现了大量视频,其中包含虚假的伊朗女兵,她们说:“哈比比,来伊朗吧。”

打开网易新闻 查看精彩图片

其中一个破绽是,伊朗禁止女性在战斗岗位服役。

该视频获得了超过200个赞和23条评论,其中包括:“绝对是的。”

人工智能研究人员表示,即使消费者知道这些政治深度伪造内容并非真实,它们仍然具有说服力。

格雷戈里指出,福斯特“穿着高跟鞋,穿着军装,她的军事徽章完全是错误的。她没有任何理由会和特朗普总统以及尼古拉斯·马杜罗混在一起”。他进一步分析道:“如果你仔细想想,这一切都没有多大意义,也经不起推敲。但人们不一定在寻找真实的东西;他们是在寻找能代表他们信念的东西。”

布鲁金斯学会人工智能和新兴技术倡议的研究员瓦莱丽·维尔茨沙夫特表示,深度伪造内容随后会降低人们重新考虑这些信念的可能性。

维尔茨沙夫特认为,深度伪造内容“只是在这个强化而非重新审视人们认为是真实事物的过程中,又增加了一层。”

研究人员担心情况只会变得更糟。根据《科学》杂志最近的一项研究,用于构建福斯特的技术也可以用来产生研究人员所说的“人工智能蜂群”,它们能够“自主协调、渗透社区并有效地捏造共识”。

“这有点像一个巨魔农场,只是不再需要真正的人了,”维尔茨沙夫特说。

打开网易新闻 查看精彩图片

但研究人员也表示,人类仍然可以阻止恶意行为者利用人工智能破坏社会稳定。

格雷戈里指出,科技公司随后需要使用这些信息来标记内容是否包含人工智能。

Meta的监督委员会最近表示,有报告称该公司在“不一致地执行”该联盟的标准,“甚至在由其自身人工智能工具生成的内容上也是如此,并且只有一部分此类输出得到了适当的标记”,对此他们感到担忧。

格雷戈里认为,标记不一致是由于大型科技公司“高层缺乏政治意愿”。

“我们不需要放弃辨别真实与合成的能力,”他说。“但我们确实需要迅速采取行动。”