一项新报告发现,许多最大、最广泛的国家赞助在线宣传活动已经开始使用人工智能——而且它们通常做得很糟糕。

这份由社交媒体分析公司Graphika发布的报告分析了九个正在进行的在线影响力活动——包括与中国和俄罗斯政府有关的活动——发现每个活动都像大多数社交媒体一样,越来越多地采用生成性人工智能来制作图像、视频、文本和翻译。

研究人员发现,宣传活动的赞助者已经开始依赖人工智能来执行核心功能,如制作内容和在社交媒体上创建影响者形象,从而使一些活动更加高效。但研究人员表示,这些内容质量低,参与度很少。

这些发现与许多研究人员对生成性人工智能日益复杂化的预期相反——这种人工智能模仿人类的语言、写作和图像。近年来,这项技术迅速变得更加先进,一些专家警告说,代表威权国家的宣传者可能会使用高质量、令人信服的合成内容,试图欺骗即使是最挑剔的民主社会中的人。

然而,Graphika的研究人员发现,这些既定活动所创建的AI内容质量低劣,称之为“垃圾”,包括YouTube视频中不可信的合成新闻记者、笨拙的翻译,以及意外在标题中包含AI提示的假新闻网站。

Graphika的高级分析师兼报告的共同作者Dina Sadek表示:“影响操作已经系统地整合了AI工具,其中很多都是低质量、廉价的AI垃圾。”她说,就像这些活动在开始常规使用AI之前一样,他们在西方社交媒体网站上的绝大多数帖子几乎没有受到关注。

旨在影响美国政治和传播分裂信息的在线影响活动,至少可以追溯到十年前,当时,俄罗斯的互联网研究机构创建了大量的Facebook和Twitter账户,并试图影响2016年的总统选举。

正如在其他一些领域,如 网络安全 和 编程,人工智能的崛起并没有彻底革新在线宣传领域,但它确实让某些任务的自动化变得更简单,萨德克说。

“虽然内容可能质量不高,但在大规模上却非常容易扩展。他们只需要坐在那里,可能只用一个人按按按钮,就能创造出这些内容,”她说。

报告中提到的例子包括“替身”,这是司法部与克里姆林宫有关联的一个行动,研究人员表示,这个行动利用人工智能创建了不可信的假新闻网站,以及“垃圾伪装行动”,司法部与中国联系在一起,该行动创建假冒的人工智能新闻影响者,在社交媒体平台如X和YouTube上传播分裂性但不可信的视频。报告提到了一些使用低质量深度伪造音频的行动。

一个例子发布了名人如奥普拉·温弗瑞和前总统巴拉克·奥巴马的深度合成视频,似乎是在评论印度在全球政治中的崛起。但报告称这些视频显得不太可信,没能引起太多关注。

另一个亲俄视频,标题为“奥林匹克已陨落”,似乎旨在抨击2024年巴黎夏季奥运会。这部视频致敬于2013年好莱坞电影“奥林匹斯已陨落”,主演的是一个AI生成的汤姆·克鲁斯形象,他并未参与这两部电影。报告发现,除了一个通常分享该活动影片的小圈子,这个视频几乎没有引起关注。

中国驻华盛顿大使馆、俄罗斯外交部、X和YouTube的发言人没有回应我们的评论请求。

萨德克表示,即使他们的努力没有接触到许多实际的人,但在人工智能聊天机器人的时代,宣传者在互联网上泛滥的信息仍然是有价值的。开发这些聊天机器人的公司通过抓取互联网文本,不断训练他们的产品,以便重新排列并输出内容。

战略对话研究所(Institute for Strategic Dialogue)的一项最新研究发现,大多数主要的人工智能聊天机器人或大型语言模型,在回答中引用了由国家支持的俄罗斯新闻机构,包括一些已被欧盟制裁的新闻机构。