以色列总理本雅明·内塔尼亚胡上个月发了条视频,想证明自己没被导弹炸死。结果评论区炸了——更多人认定他是深度伪造(deepfake,用AI生成的虚假音视频)。

他犯了什么错?光线 tricks 让他的右手看起来像有6根手指。这个细节成了"AI露馅"的经典标志。几天后他冲进一家咖啡店,举着双手笑呵呵地数手指:1、2、3、4、5。

专家告诉我,这是首位公开自证非AI的大国领导人,而且输得很难看。到现在还有大批人坚信他已经死了,顺便把我也划进了"掩盖真相"的阴谋名单。

我阿姨认识我30年,胜率90%

我阿姨认识我30年,胜率90%

看到内塔尼亚胡的翻车现场,我决定做个实验。打电话给阿姨Eleanor,告诉她过几分钟会收到我的电话——但可能是真人,可能是AI克隆。

第一轮她挺自信:"真人说话起伏更大,AI太平了。"

第二轮我换了AI语音回拨。她沉默了很久。"刚才那次……更像人工的。"

也就是说,认识我三十年的亲人,在明确知道可能被欺骗的前提下,准确率只有90%——而且她把真人当成了AI,把AI当成了真人。

这还没完。几周前我在家庭群发了条Google隐私设置的链接,我妈立刻警觉:"怎么证明你是Tom不是骗子?说点骗子说不出来的。"

我憋了半天,回了句我们家的内部梗。她信了。但这种"社会认证"能撑多久?

当"自证清白"变成行为艺术

当"自证清白"变成行为艺术

打开网易新闻 查看精彩图片

内塔尼亚胡的咖啡店视频犯了几个低级错误。专家Santiago Lakatos指出:光线差、角度单一、没有实时互动。这恰恰是AI视频最容易模仿的场景。

更讽刺的是,他越努力证明,越像AI。人类看到"完美自证"会本能怀疑——太干净了,干净得像渲染出来的。

我采访了多位深伪检测研究者,得到一份"活人认证指南":

第一,制造不可预测性。AI擅长回应,但不擅长主动制造混乱。内塔尼亚胡如果当场让店员随机说个数字,他重复一遍,可信度会高很多。

第二,暴露生理瑕疵。流汗、眨眼频率不规律、背景噪音里的随机咳嗽。AI视频往往"过于健康",像美颜开到满级。

第三,时间锚定。举起当天的报纸已经过时了,要展示实时信息——比如此刻Twitter的热搜榜,而且得是动态滚动状态。

但这里有个悖论:这些技巧公开后,AI训练数据里也会加入它们。今天的"活人特征",明天就是深伪的标配。

信任崩塌的连锁反应

信任崩塌的连锁反应

深伪检测公司Reality Defender的CEO Ben Colman给我算了笔账:2024年上半年,他们检测到的合成语音攻击同比增长了900%。不是"大幅上升",是精确的900%。

更麻烦的是反向攻击。一位安全研究员告诉我,他已经遇到三起案例:真人被指控为AI,职业生涯差点毁掉。"比被冒充更可怕的是,你无法证明自己不是冒充的。"

内塔尼亚胡事件后,以色列反对派议员要求总理进行"线下公开露面"。你看,连"真人到场"都成了需要特别申请的可信度背书。

打开网易新闻 查看精彩图片

这让我想起阿姨实验后的对话。她问我:"如果以后视频通话都不能信了,我们怎么办?"

我说:"可能得约定一个暗号,只有家人知道的。"

她回:"那AI偷听了我们的电话呢?"

暗号也在失效

暗号也在失效

这个担忧不是 paranoid。GPT-4级别的模型已经能处理多轮对话上下文,家庭暗号在足够长的交互里会被试探出来。更狠的攻击是"深度上下文伪造"——AI不直接猜暗号,而是诱导你自己说出来。

我最后问专家:有没有绝对可靠的验证方式?

答案是物理接触。DNA、指纹、当面握手时的体温。但全球每天有数十亿次远程身份验证发生,不可能全部线下完成。

内塔尼亚胡的5根手指视频发布后,他的支持者在评论区刷起了"活着的总理"。反对派则剪辑了另一个版本:手指数量正确,但光影计算"过于完美",反而像Unity引擎渲染。

两个版本传播量差不多。真相的权重,第一次和阴谋论打成了平手。

实验结束我给阿姨发了条语音解释全过程。她回:"下次直接打视频吧,让我看看你的猫。"

我的猫上个月死了。这个细节,AI暂时还不知道。