2024年,印度演员Rashmika Mandanna的换脸视频在Instagram和Telegram疯传,没人来得及阻止。同一周,一段伪造的拜登劝选民别去新罕布什尔州初选的AI视频,触达数百万人才被下架。
这不是意外。Deeptrace Labs的数据显示,2019到2023年间,深度伪造视频增长了900%。目前社交媒体上流通的伪造视频估计超过50万条。世界经济论坛已将合成媒体列为未来数年全球十大风险之一。
最麻烦的部分?制作这些视频的工具现在完全免费,且不需要任何技术背景。
「一眼假」的时代结束了
多数人以为假视频很好辨认:模糊的人脸、诡异的光影、机械的声音。这在2019年确实成立。
Runway ML、HeyGen、OpenAI的Sora等工具彻底改写了规则。一个不懂技术的普通人,用一台笔记本就能产出连专业研究员都难以分辨的内容。
2023年底,英国一家安全公司做了场测试:把AI生成的演讲视频混进真实新闻片段,让200名参与者辨认。错误率高达47%——几乎和随机猜测没区别。
平台算法成了帮凶
问题不只是伪造技术变强了。推荐系统的逻辑让情况更糟。
情绪越极端的内容,互动率越高。而AI生成的视频恰恰擅长制造这种情绪——完美的愤怒、精准的恐惧、计算好的共鸣。一条伪造的「官员腐败」视频,24小时内就能完成从生产到病毒传播的全流程。
更隐蔽的是「真实性套利」。当假内容做得足够逼真,平台的内容审核反而犹豫——误判真实内容的代价太高。结果就是:宁可让十条假视频漏网,也不愿错杀一条真的。
检测工具正在打一场必输的仗
技术公司不是没有反击。微软推出Video Authenticator,Adobe搞出Content Credentials,专门给真实内容打「出生证明」。但这类方案有个致命前提:创作者愿意主动使用。
现实是,造谣者不会给自己贴标签。而被动检测——等视频传开了再识别——永远慢一步。Sora这类模型更新迭代的速度,远超检测算法的跟进能力。
「这就像用杀毒软件对抗零日漏洞,」一位Meta的前内容安全工程师说,「你发现一种伪造特征,生成工具下周就修补掉。」
普通人能做什么
技术层面,目前可靠的自保手段少得可怜。反向图片搜索对AI生成内容基本失效;元数据验证需要专业工具;最稳妥的「交叉信源核实」,在信息爆炸的场景下近乎不可能执行。
但有个趋势值得注意:年轻一代对视频的信任度正在系统性下降。皮尤研究中心2024年的调查显示,18-29岁群体中,61%的人会默认怀疑 viral 视频的真实性——无论它看起来多真实。
这种「防御性不信任」或许是最务实的适应策略。不是学会识别假视频,而是先假设所有视频都可能有问题。
当50万条伪造内容每天被生产出来,「眼见为实」四个字还剩多少含金量?
热门跟贴