2024年2月,香港一家跨国企业的财务人员,在视频会议中眼睁睁看着"CFO和高管团队"下达转账指令。会议结束后,近2亿港币打了水漂。直到事后才发现,视频里所有"高管"都是AI换脸伪造的。这起震惊全球的案件,只是AI造假狂潮中的一个缩影。

奇安信发布的数据显示,近些年基于AI的深度伪造欺诈暴增3000%。这个数字背后,是技术门槛的急速坍塌。三年前制作一段换脸视频还需要专业团队和昂贵设备,现在一部手机加几个APP就能搞定。蚂蚁集团AI核身安全负责人刘健直言,AI的终极目标就是模拟真实世界,它对物理和生物信息的模拟能力会越来越强大,定制化诈骗让人防不胜防。

打开网易新闻 查看精彩图片

深度伪造(Deepfake)这个词,由"深度学习"和"伪造"组合而成,但它的破坏力远超字面意义。现在的AI造假已经形成完整的黑色产业链:上游提供开源算法和工具包,中游有专门的"技术服务商"接单定制,下游则是各类诈骗、敲诈、政治操纵的实施者。

技术演进的速度超想象。早期的换脸视频还能通过眨眼频率、光影不协调等细节识破。但现在的生成式AI已经能完美模拟微表情、呼吸节律、甚至虹膜反光。声音克隆更可怕,只需要几秒钟的音频样本,AI就能生成足以以假乱真的语音,包括语气、口音、停顿习惯。

面对AI造假的泛滥,技术防御端也在快速跟进。Google DeepMind推出的SynthID系统,已为超过100亿张AI图像添加了不可见水印。这种数字水印嵌入在生成内容的底层数据结构中,即使经过压缩、裁剪、滤镜处理,也能被专用工具识别出来。

打开网易新闻 查看精彩图片

中国在监管层面走在前列。2025年9月1日实施的《人工智能生成合成内容标识办法》明确要求,AI生成内容必须通过显著标识和数字水印进行标注;使用他人面容、声音要事先取得同意,禁止用于煽动、造假、诈骗等行为。这标志着AI生成内容进入"持证上岗"时代。

但现实比理想骨感得多。水印技术的最大问题是,它只能标记"我是AI生成的",却无法阻止恶意使用。更致命的是,各种"去水印"服务已经形成成熟的灰色市场。法日报的调查发现,只需几块钱就能通过在线工具去除AI图像的显式和隐式标识。

SynthID这类检测工具的局限性也很明显。它只能识别带有特定水印的内容,对其他平台生成的AI內容完全无能为力。就像Gemini的AI图像检测功能,只能识别自家产品,面对Midjourney、Stable Diffusion生成的图像就抓瞎了。这种"各自为战"的局面,让防伪体系存在巨大漏洞。

更深层的矛盾在于,AI检测AI本身就是一场军备竞赛。每当检测算法升级,生成算法就会针对性地调整来规避检测。一些研究者甚至把检测模型当作对抗训练的"陪练",专门优化生成模型去绕过检测。这种猫鼠游戏,目前看不到终点。

打开网易新闻 查看精彩图片

防伪大模型的出现提供了新思路。这类模型不只是简单判断真假,还能进行可视化归因分析,描述伪造方式和痕迹,实现人机协同。但要大规模部署,成本和算力需求都是难题。对普通用户来说,最现实的防范手段还是回到传统:多渠道验证信息、警惕不寻常的转账要求、对"紧急情况"保持怀疑。

世界经济论坛已将深度伪造列为2025年全球头号风险之一。当"眼见为实"的认知基础被动摇,整个社会的信任机制都面临重构。技术防伪只是一方面,更需要法律、教育、平台治理的多维度协同。这场与AI造假的拉锯战,注定是一场持久战。