声明:本文内容均引用权威资料结合个人观点进行撰写,文末已标注文献来源及截图,请知悉。

诈骗新型手段出现,诈骗成功率接近100%,涉及AI技术,一张照片,一句话就能以假乱真,父母亲人都分辨不出来。

打开网易新闻 查看精彩图片

那么,人们都是怎样上当的?AI换脸技术的成本高吗?我们该怎样辨别AI诈骗?

打开网易新闻 查看精彩图片

耳听为虚,眼见也不为实

“姥姥、姥爷,我跟同学打架把人打进了医院,对方要求赔偿十几万元……”,在国外留学的外孙犯了错,要求老人给钱应急,但不能告诉父母。

打开网易新闻 查看精彩图片

两位老人没想那么多,一心想着把外孙“解救”出来,好在他们拎得清,还是把事情说了出去。

家人立刻给远在国外的“外孙”打去电话,对方正在网吧打游戏,不出意外两位老人遇到了骗子,声音肯定是合成的。

直到把事情说开、说清楚后,两位老人也半信半疑,因为声音实在太真实。

图源网络

打开网易新闻 查看精彩图片

这一家人躲过了诈骗,另一位退伍老兵就没有那么幸运了。

战友情重于山,“老战友”生病遇资金困难,艰难开了口,退伍老人二话不说,分别转去了2000元和8000元。

谁知两笔资金到账后,“老战友”却消失了。

打开网易新闻 查看精彩图片

因为担心“老战友”的情况,退伍老人想方设法与“老战友”联系,最终付诸于警方和媒体的力量,这才知道自己被“声音合成”给骗了。

通过AI技术,制造“声音合成”已经足以以假乱真,使很多人上当受骗,但更为高超的诈骗手段是AI换脸,福州市某科技公司法人代表的郭先生就上当受骗了,并且损失不低。

打开网易新闻 查看精彩图片

2023年4月20日中午,好友在外地竞标期间突然打来微信视频电话,表明困境,需要郭先生所在公司的账户过账。

出于信任,更有视频电话为证,郭先生挂断电话就操作资金账户,也怪他大意,没等对方资金到账就把430万元转了过去。

打开网易新闻 查看精彩图片

担心钱不够,郭先生又打电话向好友询问情况,电话那头的好友也愣了神,他根本就没找郭先生借钱。

警方接到报警后迅速处理,与银行方面通力协作,拦截了336万左右,余下的93万多元仍在追缴中。

如果说身为法人的郭先生不了解财务方面的知识,对转账缺乏理性的判断,那么另一公司的财务小王,也能上当受骗就很能说明问题了。

打开网易新闻 查看精彩图片

小王接到老板要求转账2万元的电话,还给出了转账理由和转账信息的发送方式。

电话中,老板说着一口地道的方言,重音转折的方式都跟之前没什么不同,至少小王听不出来变化。

骗子的骗术已经相当高明,AI技术换脸足以达到逼真的效果,配上合成过的声音,耳朵听到的不一定是真实的,眼睛看到的也可能是假的,恐怕本人来了都得迷惑。

打开网易新闻 查看精彩图片

那么,骗子是怎样获得目标人的照片和声音的?

打开网易新闻 查看精彩图片

诈骗技术成本低

网购的冲击导致实体店的生意越来越不好做,很多东西在线下不容易买到,但在网购平台上却能轻而易举挑选出令消费者满意的产品。

打开网易新闻 查看精彩图片

与AI有关的一些技术,在电商平台上已经泛滥成灾。搜索“AI克隆声音”或“AI视频生成”等就会出现一长串提供两项服务的商家。

两项服务的价格,下到几百元,上到数千元不等,提供AI类基础教程的价格更低,比网友热梗9.9元包邮还要低0.1元。

打开网易新闻 查看精彩图片

这也就说明了,即使某个人不懂AI技术,也能花费少许的钱,也能得到他想要的声音,门槛极其低。

我们都知道,AI的出现是为了便利生活,向科技改变世界迈进一步,所以不管是“合成声音”,还是“视频生成”,它们出现后被应用为输入文字配音和定制专属照片、视频等。

技术不分属性,使用技术的人才分好坏,更重要的是我们现在的信息泄露的情况太严重,声音和照片都很容易被获得。

打开网易新闻 查看精彩图片

比如声音:我们每个使用手机购物、注册会员卡的人,都接到过骚扰电话,甚至还莫名其妙地接到过保险和信用卡方面的电话。

如果电话的另一端是骗子,从我们说的第一句话开始,所有的内容都会被提取,用作声音合成的素材。

盗取微信号掌握信息,也是骗子的常用方法。尽管微信的语音没有转发功能,语音的提取插件却容易安装,想要实施转发并不难。

打开网易新闻 查看精彩图片

利用目标人物的真人声音合成出来的声音,身边亲近的人都无法听出来。

AI换脸:我们平常在朋友圈、微博、小红书上发布的照片,都有可能被骗子利用,他们可以通过换脸技术,伪装成指定目标,令人防不胜防。

对于挑选指定目标,诈骗分子也有一套手段。

打开网易新闻 查看精彩图片

诈骗分子可以利用AI技术对人群进行筛选,并根据所掌握的信息,生产出定制化的诈骗脚本,实施精准诈骗,比如骗子利用老人对孙辈的溺爱,挑选出有存款或有养老金的老人,在合适的时机果断出手。

打开网易新闻 查看精彩图片

还有假靳东的出现,都代表着诈骗分子开始团伙作案,他们更是一群高智商,懂得把控人心的高智商犯罪分子。

以前我们可以从语音的熟练度、自然度,照片视频中人物的瞳孔来辨别真假,如今技术的发展,已经消除了这些不自然的情况,我们更难辨别AI换脸了。

打开网易新闻 查看精彩图片

那么,真就没有办法防住诈骗分子了吗?

打开网易新闻 查看精彩图片

结语

涉及金钱交易,最好的方法就是多重验证对方的身份,拨打视频电话、拨打手机号码或要求对方上门。

打开网易新闻 查看精彩图片

总之,一定要确定对方是本人才可以转账。

如果对方要的急,这边来不及核实,先转账并非不可,但要设置对方的到账时间,给自己预留时间核实,也给遇到诈骗后警银时间拦截追回资金。

作为个人,除了在涉及金钱交易时长个心眼,平常也需要注意不泄露自己的指纹、角膜、人脸等生物信息。

请把防诈骗信息转告家人,切忌粗心马虎,否则后悔晚矣。

参考资料:
中国日报:2023-05-24:“AI诈骗正在全国爆发”,警方紧急提醒!
北京日报客户端:2024-04-08:调查|不法分子盯上老年人,“AI换脸换声”难以辨别

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片