2023年全网只有50万条深度伪造(Deepfake)内容。到2025年,这个数字暴涨到800万。不是翻倍,是16倍。
Surfshark的数据更扎心:2025年全球深度伪造诈骗卷走11亿美元,比2024年翻了三倍。其中超过80%的损失发生在社交平台——你刷短视频的地方,正在成为假脸收割场。
当肉眼无法分辨真假,"有图有真相"就成了笑话。Scott Stornetta,那位被中本聪写进比特币白皮书引用的区块链时间戳发明人,正在推动一场反向操作:与其训练AI识别假货,不如让真货自带防伪基因。
视觉证据的系统性崩溃
Stornetta在接受币安采访时甩了一句大白话:"我们正进入一个'眼见不再为实'的世界。"
这句话的杀伤力在于,它攻击的是人类最底层的认知习惯。几万年来,亲眼所见是判断真伪的最后防线。现在这条防线被AI以每月数百万条的速度击穿。
DeepStrike的追踪显示,深度伪造内容的年增长率接近900%。不是技术圈自嗨,是普通人已经分不清视频里的老板是真要转账,还是骗子换了一张脸。
UNESCO的Nadia Naffi博士把这定义为"认知危机"——不是信息太多,是建立真相的标准机制本身在失效。当任何一段视频都可能是合成的,相信和不相信都失去了依据。
这就产生了所谓的"骗子红利"(Liar's Dividend)。坏人可以倒打一耙:反正到处都是假的,这段丑闻视频?大概率也是AI生成的吧。真假一起贬值,谎言反而获得了呼吸空间。
检测军备竞赛为什么必输
很多人第一反应是:让AI对抗AI,用检测工具抓伪造内容。
Stornetta认为这是用错了工具。他把当下的焦虑比作《夺宝奇兵》里的经典场景——反派抽出长刀耍了半天,琼斯博士直接掏枪解决。检测工具就是那把长刀,生成技术才是枪。
现实确实如此。检测算法永远在追赶,伪造模型却每天都在进化。世界经济论坛警告,中等质量的人脸替换模型配合摄像头注入技术,已经能骗过生物识别系统。他们还列出了五项趋势,预测未来12到15个月风险会进一步加速。
更麻烦的是检测本身的悖论。当检测工具普及,伪造者会针对性地训练对抗样本。这是一场没有终点的猫鼠游戏,而老鼠的繁殖速度远超猫的进化。
Stornetta的结论是:别比了,换赛道。目标不是赢得检测竞赛,而是让整个检测范式变得无关紧要。
分布式信任如何重建防线
区块链在这里的角色不是炒币,是时间戳+身份锚定。
Stornetta的核心设想是:内容从诞生那一刻起就带上加密指纹,谁创建的、什么时候创建的、有没有被篡改,全部上链存证。验证的时候不需要判断画面真假,只需要核对链上的签名是否匹配。
这相当于给数字内容办了一张"出生证明"。不是让AI去分析像素有没有异常,而是让密码学保证"这段视频确实来自某个经过验证的设备,在某个确定的时间点生成"。
技术路径上,这依赖几个组件:设备端的可信执行环境(TEE)、内容创建时的即时签名、分布式账本上的不可篡改记录。用户端验证时,钱包或应用自动比对链上哈希,不需要懂密码学。
Stornetta特别强调"广泛分布信任"——不是依赖某个权威机构盖章,而是让验证权分散在网络节点。即便你不信任平台,也可以独立核验。
这套系统的真正价值在于改变攻击成本。伪造一段视频容易,伪造一条从设备到链上的完整证据链难得多。骗子需要同时攻破硬件安全模块、私钥管理和分布式网络,边际成本指数级上升。
落地阻力与场景优先级
理想很清晰,落地有 friction。
首先是设备覆盖率。全球绝大多数手机、摄像头没有内置TEE级别的安全芯片,老旧设备更是空白。全面替换需要硬件周期,可能是5到10年。
其次是标准碎片化。不同链、不同厂商的签名格式互不兼容,用户可能需要在多个验证系统之间切换。行业联盟和协议统一是前置条件。
第三是隐私边界。全程上链意味着创作行为本身被记录,某些场景(如匿名举报、敏感调查)需要额外的零知识证明层,技术复杂度再上一档。
Stornetta的务实建议是先从高价值场景切入:金融转账验证、政务文件签署、新闻报道溯源。这些场景的痛点足够痛,付费意愿足够强,能支撑早期基础设施的投入。
他特别提到新闻业。当读者可以一键验证某张现场照片的拍摄设备、时间和原始哈希,"P图"指控就不再是口水战,而是可验证的技术问题。
DeepStrike的800万条假视频是一个警告,也是一个倒计时。当合成内容的数量级超越人工审核的物理极限,"事后打假"模式注定崩溃。Stornetta的提案本质上是把信任从"内容属性"迁移到"来源属性"——不再问"这看起来像不像真的",只问"这确实来自声称的来源吗"。
这个转变需要硬件、协议、应用层的协同,周期不会短。但替代方案是什么?继续每年损失11亿美元,同时看着"眼见为实"四个字变成考古词汇?
如果三年后你的手机自动标记"此内容链上验证通过",你会更信任它,还是觉得这只是另一套可以被黑掉的系统?
热门跟贴