《纽约时报》的记者打开TikTok搜索栏时,发现了一个诡异的现象——同一个金发农场女孩,在不同账号里用一模一样的语气抨击"激进左派"。更奇怪的是,这些账号彼此关注,使用相同的音效和文案模板,却声称是真人用户。

假网红的工业化生产

打开网易新闻 查看精彩图片

自1月以来,TikTok上至少出现了304个这类账号。普渡大学GRAIL实验室又在Instagram和Facebook上找到12个,安全公司Alethea的分析师Eric Nelson在YouTube上发现9个。它们的主角不是真人,而是AI生成的虚拟形象。

这些账号的产出效率惊人。AI广告创业公司Doublespeed联合创始人Zuhair Lakhani估算,单条视频制作成本仅1到3美元,一个人就能批量运营。但效果不输真人网红——部分账号吸粉超过3.5万,单条视频播放量突破50万。

特朗普本人甚至转发过其中一个金发虚拟形象的内容。该账号对加州州长做出了未经证实的指控,而这条视频的传播链条里,没有人标注"此为AI生成"。

平台方的回应显得轻描淡写。TikTok将这些账号定性为"垃圾信息",称计划下架,但强调"没有任何隐蔽影响力行动的迹象",只是营销号在追逐流量。

《纽约时报》的调查发现却指向另一幅图景:账号集群使用完全相同的语言风格、头像风格和音效库。那个农场金发女孩和戴红色MAGA帽、护目镜的黑人女性形象,在多个账号间反复出现,甚至互相关注——这种组织化特征与"个人营销号"的解释难以兼容。

为什么偏偏是右翼?

一个值得玩味的细节:研究团队没有发现可比拟的左翼账号网络。这种不对称性本身就需要解释。

可能的解释之一是内容适配度。"美国优先"(America First)的叙事天然适合情绪化、标签化的短视频传播。AI生成内容的强项恰恰在于快速产出高情绪浓度的素材,而不需要真人网红承担声誉风险。

另一个因素是监管真空的利用窗口。美国联邦层面尚未通过针对AI政治广告的专门立法,平台政策也停留在"标注AI内容"的自愿性倡议阶段。对于运营者而言,这是低成本试错的黄金期。

更深层的问题在于身份验证的失效。传统上,社交媒体通过真人认证、社交关系链来建立信任。当AI可以批量生成可信的"人格"——包括一致的外貌、稳定的观点输出、甚至模拟的粉丝互动——这套信任机制的基础就被动摇了。

日本提供了一个参照案例。在最近的众议院选举期间,虚假AI视频和消息同样在社交媒体蔓延。国际大学Shinichi Yamaguchi教授的调查显示,51.5%的受访者相信这类假新闻为真。这个数字意味着,即便在信息素养较高的社会,AI伪造内容的穿透力也已达到临界点。

平台治理的结构性困境

TikTok的回应暴露了平台治理的核心矛盾。将问题定义为"垃圾信息"而非"影响力行动",意味着可以按常规内容审核流程处理,无需启动更复杂的政治干预调查机制。但这种分类是否准确?

关键区分在于意图。垃圾信息追求的是流量变现,影响力行动追求的是政治效果。但当两者使用相同的技术手段、内容形态和传播策略时,平台实际上难以从外部行为反推内部动机。

更棘手的是责任归属。如果账号运营者位于海外,如果AI生成工具来自第三方,如果内容经过多轮转发后链条断裂——平台可以声称自己只是"中立渠道",监管者则面临跨境执法的困境。

这种困境在中期选举的时间压力下被放大。选举周期意味着信息需求的爆发式增长,也意味着公众注意力的高度碎片化。AI生成内容的优势不在于质量,而在于数量——用饱和投放淹没真实信息的信噪比。

304个账号的启示

这个数字需要放在更大背景下理解。304是《纽约时报》在单一平台、有限时间窗口内确认的账号数量。考虑到检测方法的局限性,实际规模可能显著更高。

更重要的是,这304个账号代表了一种可复制的模式。1到3美元的单条成本、单人可操作的工作流、跨平台迁移的灵活性——这些特征意味着,一旦模式被验证有效,规模扩张几乎没有技术门槛。

对于科技从业者而言,这个案例提出了几个值得追踪的问题:

第一,身份验证技术的军备竞赛。当AI生成的人格越来越难以肉眼识别,平台是否需要强制性的生物特征认证?这种认证与隐私保护如何平衡?

第二,内容溯源的基础设施。区块链、数字水印等技术方案已被讨论多年,但缺乏跨平台统一标准。选举场景是否会加速这一领域的标准化进程?

第三,不对称性本身的成因。为什么左翼尚未出现同等规模的AI账号网络?是技术采用差异、叙事策略差异,还是检测偏差?这个问题的答案将影响对未来趋势的判断。

日本51.5%的信假率与TikTok的304个账号,共同指向一个正在形成的现实:AI生成内容不再是边缘实验,而是主流信息环境的组成部分。平台、监管者和用户都在学习如何应对这种新常态,而学习曲线的陡峭程度,将决定下一次选举周期的信息生态质量。