“太可怕了。视频、声音、口型完全看不出来真假。”
原始素材来自2020年电视剧《冰雨火》,换脸后的“假王劲松”用逼真的画面和声音进行商业推广。
他后怕地说:“措手不及,我家里人都分不清是不是真是我了。”
这不是孤例。春节前夕,旅行穿搭博主雷国悦在社交媒体上刷到了“另一个自己”。
唯一不同的是,画面中的女生换了裙子,多戴了顶草帽。
她确信:这是AI融图。
令雷国悦气愤的不只是剽窃创意,更是对方直接用于商业推广。那个粉丝过万的账号,实则是代理商批量投放的低成本推广号。
她清楚记得拍摄时的构思:特意等到日落之前,光晕正好能照亮对岸的摩天大楼。如今对方以极低成本“复刻”牟利。
她连夜通过可信时间戳服务留存电子证据,做好了诉讼准备。
一对一维权已很难,当侵权者是有组织的团伙时,反抗更加无力。
聊天记录中,主犯罗某2024年4月告诉同伙:“富贵险中求,再说你又不是做黑五产业,怕什么。”
最终,罗某和姚某各被判有期徒刑一年六个月,罚金6万元。这是北京首起利用AI侵犯著作权的刑事案件。
侵权不止于作品,还有每个人的面孔。
在聊天记录中,虞某某承诺可以定制,无论是明星还是生活中的女生,“只要是能看到的脸都能换”。5分钟视频收费300元,30分钟收费500元。
演员王劲松遇到的正是这类盗用。经辨认,其原始素材来自2020年拍摄的电视剧《冰雨火》,AI换脸后的“假王劲松”以逼真的声音和画面进行商业推广。
医疗专家也成为灰黑产的目标。北京协和医院临床营养科主任于康教授发现,自己从未参与录制的视频大量出现在社交媒体上。
“这完全是我的形象,声音相似度完全超乎了我的想象。现在技术能达到这个层级,有一点后背发凉。”他感叹。
令于康担忧的是,视频造假方兜售的错误商品及信息,老百姓一旦相信,会造成更广泛的影响。
2021—2023年,GAN技术提升了假视频的皮肤质感,但侧脸、眨眼等细节仍容易穿帮。
2024年至今,基于扩散模型与Transformer架构的生成式大模型技术逐渐完善,已能使环境光随着面部转动而变化,并表现出毛孔、汗水等纹理细节。
大约只需10—15秒的语音就能完美解析一个人的声音特点并复刻;实时分析音频波动后,能精准驱动3D嘴部肌肉模型;只要捕获操纵者的细微表情,就能实时迁移到伪造目标脸上;在环境合成环节,不仅能自动补全背景,还能模拟摄像头抖动带来的自然模糊。
传统的识别方法也已失效。“以前可以观察面部边缘,现在的模型会自动在面部边缘添加‘自然噪声’和‘羽化处理’,甚至模拟光线溢出的效果。”他说。
当出现疑似深度伪造攻击时,相对有效的手段是“多因子验证”,例如要求对方在视频中做出快速用手在脸前挥动、侧转90度头等意料之外的极端动作。大多数实时AI模型仍存在这一短板。
“但这些方法的有效性,在快速进化的技术面前也随时可能失效。”他坦言。
越来越“以假乱真”的AI换脸技术,正将普通人置于多重风险之中。
2026年全国两会期间,全国政协委员靳东回应AI换脸乱象时表示,很多人因此遭遇网络诈骗。
视频博主“滤镜粉碎机”曾模拟过真实的诈骗流程。在技术方协助下,团队生成了一位成员的AI换脸视频,用陌生微信号冒充本人联系其母亲,再用AI视频拨打微信视频电话,以“女友怀孕急用钱”的理由索要2万元。
母亲向其他亲戚朋友求助,得到了许多“是骗子,别转钱”的提醒。三小时后,在焦虑情绪的驱动下,母亲把钱转到了陌生账户。事后复盘时,这位母亲表示“从始至终都没觉得有人冒充他”。
“平时再冷静、有阅历的家长,面对熟悉的脸庞和声音,可能都难以战胜情感。”她说。
据国家反诈中心数据,2025年上半年,AI换脸诈骗案件涉案金额超68亿元,单起案件最高损失达2000万元。
技术正被用于系统性攻击数字信任验证体系,并直接牟利。
普通人也更容易遭受被造谣和诽谤的风险。
“技术趋势已不可阻挡,除了发展检测技术,我们也必须加快立法,并加强向社会公众科普有关AI技术的风险及法律知识。”他说。
全国政协委员、导演刘家成认为,若AI生成内容被用于不良广告,将对当事人造成毁灭性打击。他呼吁加强对AI的规范管理,严禁随意替换他人面孔、嫁祸于人。
你担心自己的脸被“偷”走吗?
热门跟贴