什么,“张文宏”开始带货了?
最近,有网友向媒体发来一段视频询问,“张文宏是不是带货了?”在卖一种蛋白棒,家里的老人信以为真已经下单,还转发了很多群。
该视频系AI合成
记者核实发现,这个账号名为“般画234”。在视频中,“张文宏”反复介绍一种产品,口型是他的,声音也是他的,但稍微懂点AI的小伙伴们一眼就能分辨,这是AI合成的视频!但是老年人哪里懂甄别啊?
记者发现,这段视频已在该账号内不可见,但商品橱窗内还保留着蛋白棒售卖的页面,并显示已售出1266件。
类似案例
“假靳东”骗老人上当
今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。
“我是在短视频平台上认识的‘靳东’,‘靳东’向我表白了,并用两人合照发布了短视频,现在他拍戏需要200万元,我要去帮助他。”老人略显激动在说道。
民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成,但老人对网络知之甚少,对于骗子所说所做深信不疑。
民警向老人进行耐心劝导,通过展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才醒悟过来。
学会三招识别AI“换脸换声”
我们可以要求对方在视频对话的时候,在脸部面前,通过挥手的方式去识别实时伪造的视频。在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或者闪现,或是一些其他异常的情况。
在点对点的沟通过程中,可以问一些只有对方知道的问题,验证对方的真实性。
还可以让对方通过按鼻子按脸的方式,观察其面部变化,真人的鼻子按下去是会变形,但AI生成的鼻子并不会,同样脸部也是一样的。
值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。
例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。
同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。
来源:侬好上海、上观新闻、大皖新闻
编辑:陈琬玉
编审:马里
监制:赵延琦
热门跟贴