什么?

“张文宏”开始带货了?

最近

有网友 向新民晚报

发来一段视频询问

“张文宏是不是带货了?”

在卖一种蛋白棒

家里的老人信以为真已经下单

还转发了很多群

打开网易新闻 查看精彩图片

记者核实发现

这个账号名为“般画234”

在视频中

“张文宏”反复介绍一种产品

口型是他的

声音也是他的

但稍微懂点AI的小伙伴们

一眼就能分辨

这是AI合成的视频!

但是老年人哪里懂甄别啊?

记者发现

这段视频 已在该账号内不可见

但商品橱窗内

还保留着蛋白棒售卖的页面

并显示已售出1266件

打开网易新闻 查看精彩图片

这和此前“假靳东”

骗得无数阿姨砸钱一事

有异曲同工之处

今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。

“我是在短视频平台上认识的‘靳东’,‘靳东’向我表白了,并用两人合照发布了短视频,现在他拍戏需要200万元,我要去帮助他。”老人略显激动的说道。

民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成,但老人对网络知之甚少,对于骗子所说所做深信不疑。

随即,民警向老人进行耐心劝导,但老人对假“靳东”仍然深信不疑,于是民警一边继续开展劝解工作,一边通知老人孙子前来共同劝解。

最终,民警通过向老人展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才幡然醒悟过来,表示不会再相信网络上的“靳东”,对民警连连道谢,并放弃了开卡贷款的念头。

打开网易新闻 查看精彩图片

如今骗子开始利用 张文宏

实施人工智能的骗局

简直太可恶了

打开网易新闻 查看精彩图片

新民晚报记者晏秋秋评论, 现在的科技,只要有一段张文宏正常说话的视频,再把你想要他说的话输入,AI一处理就能自动生成带货视频。 这种不法账号 趁着深夜,把这种带货视频放出,到了早上再把视频屏蔽掉。 这样买的人就投诉无门,而且也不太容易被发现。

我要说的是,这么做毫无疑问,就是在犯罪!卖掉这几百单,可能要坐牢几年,这样的账号也存活不了多久,平台会第一时间封禁账号、封存资金。

那么我们如何辨别

屏幕里的是真人还是AI合成人呢?

蚂蚁集团天玑实验室安全算法专家朱凯建议,通过遮挡结合“动起来”的方式,来识别到底是真人还是“数字人”——比如,在摁鼻子或摁脸的同时左右摇晃头部,这就是“动起来”的一种方式。目前很多“AI换脸”的基础是被模仿者的照片,照片是平面的,所以生成的“数字人”以正面、平面为主。当人脸动起来时,会呈现出脸部的三维结构,算法只能基于平面的照片推测三维结构,按照现有的技术手段,推测结果大多不太理想,从而让人发现漏洞。

此外,可以要求对方在脸部挥手、用手指比数字等。真人做这些动作时,脸部表情、手部动作都很自然;如果是“数字人”,很可能出现问题。虽然现有的AI技术有能力生成脸部被部分遮挡的静止画面,但“挥手”“比数字”意味更多的动作,目前技术还没办法实时生成完美效果,从而出现破绽。

值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。

例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。

同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。例如,可以询问对方只有当事人之间知道答案的问题、共同经历的事情等。

本文综合自:侬好上海微信公众号、上观新闻、@晏秋秋视频号、大皖新闻

微信编辑:Rong

校对:wing