作者 | Talk君
大家好,我是talk君
“太可怕了,视频。声音、口型完全看不出来真假。”
前一阵,演员王劲松在社交媒体上发出的这声叹息,像一颗投入平静湖面的石子,激起了层层涟漪。
这位以精湛演技著称的老戏骨,第一次如此真切地感受到技术带来的恐惧——他的形象被AI盗用,合成了一条理财推广视频,连他的家人都无法分辨视频中的人是不是真的他。
这感觉就像你的身份证被人复印了一万份,撒在大街上任人填写。
你在家里好好坐着,而你的“数字分身”正在全网的阴暗角落,替你卖假药、搞诈骗、说那些你这辈子都不可能说的鬼话。
老戏骨在微博上敲出那句“太可怕了,视频。声音、口型完全看不出来真假”时,手指头估计都是抖的。
那不是愤怒,是一种更深层的荒诞和冰凉——当技术能完美复刻你的一切,你他妈到底是谁?
你的脸,成了黑市最抢手的A货
这不是什么科幻电影的开场。这就是现在,2026年,我们所有人正在淌的浑水。
以前明星被侵权,好歹是P个图,挂个丑照,或者盗用两句台词。
现在不一样了。现在是一整个“你”被连根拔起,从声音到皮囊,从表情到肌肉记忆,被打包成数据包,扔进某个暗网的角落,明码标价。
王劲松这事儿最惊悚的后续是什么?是投诉之后,视频下架了,然后呢?屁事没有。
那个用他的脸、他的声音招摇撞骗的东西,像幽灵一样消失,留下本尊在原地,连该冲谁发火都不知道。
这已经形成了一条完整的、嚣张到极点的产业链。你去电商平台搜搜看,几百块钱,几分钟,你就能让任何一个人的脸,在视频里做任何你想让他做的事。
声音更便宜,明星声音200块一条,素人50,还“包教包会”。
这是什么概念?这意味着,“伪造一个人”的成本,已经比伪造一张百元大钞还要低,风险几乎为零。技术民主化了,作恶也民主化了。
赛博时代的“画皮”:当眼见不再为实
《聊斋》里的画皮鬼,还得找张人皮,点灯熬夜地描摹。
现在的AI,连这张皮都省了。它直接钻进你的数字影子,把它吹胀,变成一个能走、能说、能骗的“你”。
李连杰、姚明、唐国强、于和伟……名单一长串,全被同一家“数字金融企业”盯上,在视频里挨个“站台”。
这感觉就像一场盛大的、荒诞的“赛博皮影戏”,幕后有只手,随意用名人的脸演着它写的烂剧本。
而台下看戏的我们,早就分不清幕布上晃动的,到底是人还是鬼。
更绝的是温峥嵘遇到的事儿。这位姐姐发现自己被“AI盗播”,同时出现在好几个直播间,卖着不同的垃圾。
本尊冲进去质问,结果被对方光速拉黑。
她对着镜头苦笑:“我很难证明我是我。”
这句话,堪称这个时代最黑色幽默的注脚。当假货比真货还像真货,真货反而需要给自己贴上“保真”的标签。证明自己是自己,成了数字时代人类的新型酷刑。
电话那头“孙子”在哭,这头老人被骗空
当然,明星都被冒名顶替,老百姓更别说了……
电话在响,是座机。说实话这玩意儿现在除了老人和诈骗犯,没人用。
李奶奶接起来,电话那头是孙子的声音,带着哭腔。他说奶奶我出事了,打伤了人,不给钱私了就要坐牢。声音里的颤抖、停顿、呼吸的节奏,甚至那声抽泣,都和她孙子一模一样。
老人手忙脚乱翻出存折,取了现金,两万块。半小时后,一个陌生的年轻人敲门,说是孙子朋友,来帮忙拿钱。为了让她彻底安心,年轻人还当着她的面拨通了“孙子”的电话。
“奶奶,没事了,交给朋友就行。”那个声音说。
直到晚上,真正的孙子回家吃饭,这场由AI主演的亲情大戏才轰然散场。老人的两万块,连同她对“耳听为实”这个成语的全部信任,被一起打包带走,消失在城市的某个ATM机里。
技术从不作恶,但人会
别误会,AI技术本身只是个工具,像菜刀。菜刀能做饭,也能砍人。
现在的情况是,造假的已经开上跑车了,打假的还在蹬三轮。你发现自己的脸被用了,气到吐血,走投诉流程,平台慢悠悠下架。
然后呢?没有然后。造假的换个账号,一分钟后再来一次。成本忽略不计,收益可能巨大。
最高人民法院虽然出了一些案例,说“AI换脸不构成合理使用”,平台不能拿“技术中立”当挡箭牌。但落到现实里,这种威慑力,就像用滋水枪去喷一个着火的油库。
全国政协委员甄子丹都说,遇到这种诈骗,得报警。
但一个残酷的现实是,很多这种造假源头根本不在国内,它们在法律的灰色地带,甚至是法外之地蹦迪。
你报个警,警察叔叔也很难跨国去抓那个躲在屏幕后面、可能用了十几层代理的“换脸小子”。
这变成了一场极度不对等的战争。一方是零散的个人,一方是隐匿在技术背后的黑色产业。功夫明星的拳脚,在赛博世界里,也找不到可以打击的对象。
我们正在亲手摧毁“真实”的标尺
这才是最深的恐惧。深度伪造摧毁的不仅是某个人的脸,而是我们整个社会赖以运转的信任基础——眼见为实。
当一段视频、一段音频无法被采信,当任何一个公众人物说的话都可能被伪造,当我们连家人的视频通话都要怀疑一下是不是AI合成时,社会的黏合剂就开始失效了。信任的成本被无限推高,高到任何沟通和交易都难以进行。
娱乐圈只是第一个重灾区,因为明星的脸最有价值。
但接下来呢?你的老板、你的客户、你的父母,会不会突然在某个深夜,给你发来一段诡异的借钱视频?政治人物的一段煽动性演讲,会不会引发难以预料的动荡?
这已经不是娱乐八卦,这是悬在所有人头顶的、一把叫做“认知战”的达摩克利斯之剑。我们过去担心信息茧房,现在要担心的是,整个信息世界都可能是一个楚门秀,一切皆可编排,一切皆可伪造。
在假货横行的世界,如何当一个“真人”?
面对这个局面,难道我们只能躺平任嘲?倒也不是。但应对的方法,必须比技术更野,更刁钻。
第一招,物理防伪。
专家给了一些土法,比如让对方在视频里快速转头,或者用手掌把脸全遮住再快速拿开。AI在处理这种大幅度的、实时的图像变换时,容易露出马脚,出现卡顿或扭曲。虽然听起来有点蠢,但在关键时刻,这可能就是鉴别“真假美猴王”的唯一法门。
第二招,法律要长出牙齿。
国家网信办最近在搞《数字虚拟人信息服务管理办法》的征求意见稿,方向是对的——用“数字人”就得标出来,用别人的脸建模,得本人单独同意。
但关键在于,罚则必须够狠。不能让侵权变成一门“被发现就下架,没发现就血赚”的无本买卖。得像打击假酒假烟一样,让造假者倾家荡产,才有威慑力。
王劲松的愤怒,是一声响亮的警钟,那些被AI“孙子”骗走的钱,是他们对这个世界残存的、朴素的信任。
它提醒我们,在这场技术与人性的赛跑中,我们落后了。但跑得慢没关系,怕的是我们根本没意识到,这是一场关于“我们何以成为我们”的终极比赛。
你的脸,你的声音,你的名字,这些曾经毫无疑问属于你的东西,现在正漂浮在数字的海洋里,等待被任何一双手捕捞、复制、篡改。
而这场“画皮”游戏,才刚刚开始……
你对此有什么看法?欢迎评论区留言讨论~
部分图片源于网络,侵删
赶紧关注视频号@一刻talks吧!
热门跟贴