现在AI诈骗的成功率已经接近100%,连国家一级演员王劲松的家人都分不清视频里的他是不是真的。 一段仅仅15秒的AI换脸视频,就能让一位母亲在3小时内,毫不犹豫地转出全年收入近3万元。

2026年2月26日,演员王劲松在社交平台发了一条消息,直接冲上了热搜。 这位老戏骨气得不行,他说自己的形象被AI盗用,生成了假视频。 视频里,他的声音、口型逼真到连家里人都分不清真假。 他原话是:“太可怕了,视频。 声音,口型完全看不出来真假。 ”

打开网易新闻 查看精彩图片

这视频是在微信视频号上流传的。 王劲松发现后,马上向平台投诉。 投诉截图显示,平台受理后把视频删了。 但王劲松在评论区跟网友聊天时说,这事儿让他后背发凉。 他担心的是,以后会不会出现更真、性质更恶劣的AI肖像侵权,直接用于诈骗呢? 他不敢往下想。

更让他觉得无力的是,侵权者的代价几乎可以忽略不计。 视频一删,事情好像就过去了,不疼不痒。 但谁能保证,这种钻法律空子的擦边球,最后不会沦为犯罪的手段?

这次侵权的视频,据说是盗用了王劲松2020年拍摄电视剧《冰雨火》时的画面,还有他同年6月发布的一段禁毒宣传视频素材,用AI技术合成出来的。 王劲松自己都说,以前也遇到过AI伪造的内容,但做得粗糙,一眼就能看出假。 这次逼真得让他措手不及。

这不是什么科幻电影里的情节,而是正在我们身边发生的现实。 AI视频生成技术,也就是常说的“深度伪造”,已经进化到了让人毛骨悚然的地步。 它不再是最初那种手指头都数不对、画面扭曲的粗糙换脸。 现在的AI,能完美复刻一个人的面部细节、微表情、声音的起伏,甚至说话时特有的语气和停顿。

技术的门槛正在飞速降低。 曾经需要专业团队才能操作的技术,现在可能只需要一个消费级软件,几分钟就能生成一段以假乱真的视频。 根据市场研究公司Gartner的数据,在过去12个月里,高达62%的组织都经历过涉及深度伪造的社会工程学攻击。

王劲松的担忧,早就成了无数普通人生活中的噩梦。 在天津,市民李先生收到一条短信,对方自称是他单位的领导。 加上社交软件好友后,“领导”以急事需要资金周转为由,要求李先生转账,还保证事后返还。 为了取得信任,对方甚至主动打来了视频电话。 视频那头,出现的确实是“领导”的脸。 李先生瞬间放下戒备,分三笔转去了95万元。 直到下午和朋友聊起,才觉得不对劲报警。 幸亏警方和银行联动紧急止付,最终追回了83万元。

警方说,不法分子就是利用AI技术,把他人的脸换成熟人或亲人的脸,通过合成视频来“以假乱真”,扰乱视线实施诈骗。 这种手法,已经形成了一条成熟的灰色产业链。

打开网易新闻 查看精彩图片

在山东宁阳县,法院审结了一起利用AI换脸、语音合成技术实施的网恋诈骗案。 被告人孙某在网络游戏中结识李某后,虚构“白富美”人设,通过伪造身份证件、利用虚拟人脸技术与李某视频聊天,成功骗取信任并确立恋爱关系。 随后,孙某以各种理由向李某索取钱财,并使用录音合成软件制作虚假对话,诱使李某多次转账,诈骗金额累计近13万元。

在湖北黄石,法院公布的一起典型案例中,被告人吴某涛按照上线指令,假冒身份上门收取诈骗款。 他来到三位老人家里,当场拨通上线语音电话,再由上线利用AI拟声技术,模拟被害人亲属的声音,冒充亲属取得信任,从而骗走现金共计6万元。

这些还只是冰山一角。 根据德勤的数据预测,到2027年,仅在美国,因深度伪造和AI欺诈造成的商业损失就可能达到400亿美元。 从冒充领导诈骗财务人员,到伪造亲人出事紧急要钱,AI技术给诈骗插上了翅膀,让骗局变得防不胜防。

面对这种新技术侵权,法律是怎么看的? 实际上,法院已经给出了明确的答案:AI不是侵权的挡箭牌。

在北京互联网法院审理的一起案件中,被告孙某未经同学程某同意,使用AI软件将程某的微信头像肖像照片,生成了衣着暴露、身体畸形的动漫图片,并发送到微信群和私信给程某。 法院审理后认为,这些AI生成的图片与程某的肖像具有高度对应关系,能识别出是程某本人,因此构成了对程某肖像权、名誉权的侵害。 最终判决孙某公开赔礼道歉并赔偿精神损失。

这个案例明确了一点:只要AI生成的内容能够指向特定的自然人,让人识别出来是谁,就受法律保护。

更有意思的一个判例来自江苏南京。 一位拥有25万粉丝的短视频博主林某某发现,某科技公司运营的“AI视频换脸”微信小程序,未经她许可,擅自将她的一段古风装扮视频作为付费换脸模板供用户使用。 用户充值购买金币后,就可以把自己的脸换到林某某的视频身体上。

打开网易新闻 查看精彩图片

法院在判决中提出了一个关键观点:肖像权的保护对象,并不限于面部形象。 只要是能够识别特定自然人的外部形象,都可能构成肖像权客体。 在这个案子里,即使用户换掉了林某某的脸,但视频中保留了她的身体形象、特定妆容、服饰、肢体动作和场景。 一般公众仍然能把这个身体形象和林某某本人对应起来。 因此,法院认定该科技公司的行为侵犯了林某某的肖像权,判决其书面赔礼道歉并赔偿经济损失。

也就是说,哪怕只用了你的身体、你的造型、你标志性的动作,AI“偷”走的可能不仅仅是你的脸。

法律在跟进,但维权的现实往往很骨感。 就像王劲松感受到的,投诉后视频删除,侵权者似乎没什么损失。 对于普通人来说,取证难、追责难更是常态。 网络上每天有海量内容上传,平台审核主要依靠“机审+人审”结合,但AI生成技术本身也在不断进化,识别工具始终处于追赶状态,漏网之鱼难以避免。

那么,作为普通人,我们该怎么在数字世界里保护自己? 一些来自警方和专家的建议,虽然老生常谈,但在AI时代显得尤为重要。

首先,对任何线上涉及转账、借钱、验证码的请求,务必保持最高警惕。 哪怕是视频通话里看到了熟悉的脸,听到了亲人的声音,也不要立刻照办。 必须通过其他绝对可靠的渠道进行二次确认。 比如,挂断这个可疑电话,亲自用你存好的号码给家人打过去问问;或者通过你们之间才知道的暗语、家庭密保问题来验证身份。

其次,注意保护你的个人信息,尤其是生物特征信息。 不要在社交平台随意发布高清的正脸照片、长段的原声语音、包含清晰面部动态的视频。 这些都可能被不法分子采集,用作AI模型训练的素材。 设置好你社交账号的隐私权限,别让陌生人轻易获取你的生活细节。

最后,了解一些基本的识别技巧。 虽然AI视频越来越真,但并非毫无破绽。 你可以要求对方在脸前快速挥手,观察面部遮挡时的自然形变,AI合成的脸可能会出现抖动或消失。 注意观察视频中人物的眼睛,两只眼睛的瞳孔颜色或反射细节是否一致;注意嘴部运动是否自然流畅,有无不连贯的卡顿;注意视频的背景和环境有无不合理的光影或抖动。 当然,最根本的,还是牢记那句老话:天上不会掉馅饼,涉及钱财要小心。