我们正迈入一个新的、潜在危险的在线视频内容时代。AI生成的视频在社交媒体上激增,数字欺诈达到了前所未有的水平。下面教你如何分辨真实与虚假的内容。
有位科技专家警告说,超逼真的AI视频工具在Sora 2等平台上可用,被骗子利用来推动一波深度伪造诈骗的浪潮。
根据网络安全公司DeepStrike的报告,深度伪造视频数量从2023年的50万激增至今年的800多万。诈骗尝试在短短两年内激增了惊人的3000%。
想了解更多? Whatsapp用户要提高警惕,因为新Android威胁发布了紧急警告
专家透露,区分真实与虚假的事物变得越来越困难,因为人类现在只能在四次中识别出一次高质量的深度伪造,这意味着数百万人可能在不知情的情况下上当受骗,镜报报道。
最初,深度伪造和人工智能生成的视频只是一个有趣的互联网趋势,但很快演变成了一个数十亿美元的犯罪产业。骗子们现在利用人工智能克隆声音、面孔和情感,诱骗受害者交出钱财或传播虚假信息。
实时深度伪造视频通话也可能变得更加普遍,骗子在屏幕上假冒亲人或老板,配合克隆的声音和举止。这得益于像 Sora 这样的工具,它是一个可以在一分钟内生成逼真视频的文本转视频应用。
Outplayed 的技术高手分享了一些识别 AI 生成视频的关键技巧:
眨眼和眼睛:要留意视频中的人物眨眼次数较少,或眼睛以机械的方式移动。
手和手指:要留意手指的扭曲或融合 - AI 在处理手部时仍然存在困难。
光照错误:阴影的方向很奇怪,或面部显得过于明亮。
水和反射:液体看起来“太完美”或不自然地静止。
嘴唇同步问题:嘴唇和声音不太匹配 - 尤其是在“p”或“b”音上。
光滑的皮肤:AI生成的面孔看起来像塑料一样,缺乏毛孔或纹理。
故障背景:扭曲的物体或闪烁的边缘是明显的标志,未隐藏的水印也是。
布料运动:衣服在风中显得僵硬或不自然。
场景转换:镜头中出现尴尬的跳跃或“闪烁”现象,暗示了人工编辑。
奇怪的背景:人们出现在不合适的角色或奇怪的地方。
直觉:如果感觉不对,那很可能就是不对。
来自Outplayed的专家警告说,这项技术正在迅速发展,他指出:“曾经需要好莱坞工作室几周才能制作的内容,现在任何拥有笔记本电脑的人都能制作。最新的AI工具如Sora 2生成的视频几乎与现实无法区分——在错误的情况下被利用时,这让人感到恐惧。”
人们通过社交媒体、企业骗局甚至浪漫关系成为诈骗的受害者,因为这些罪犯利用了“眼见为实”的古老信念。专家进一步警告:“人们信任视频证据,这就是为什么我们正进入一个深度伪造迅速上升的危险新时代。它们绕过逻辑,直接触动情感。”
Sora的下载量现已超过一百万,用户正在制作短视频,这些视频已经引发了争议。许多人正在制作这些包含名人如Jake Paul和Michael Jackson的短片,令人担忧的是,这模糊了虚构与真实性的界限。
在几部不当的深度伪造视频开始出现后,该平台的创作者被迫禁止制作与马丁·路德·金相关的视频,突显了这项技术日益严重的伦理困境。
热门跟贴