前言

随着科技的进步,社会上的诈骗手法层出不穷,诸如杀猪盘、兼职刷单、求职招聘诈骗等,但这些诈骗手段往往需要较长时间,对诈骗犯来说“效率很低”。

但如今,一种新的诈骗手段疯狂席卷而来,能够在10分钟骗取高达430万元的巨额资金,在我们没有反应过来的时候,就已经被骗了,这样的诈骗手段的成功率接近100%。

那么,这种诈骗方式究竟是什么,我们又该如何防范?

打开网易新闻 查看精彩图片

换脸诈骗!

在当今这个科技日新月异的时代,AI 技术无疑是一把双刃剑,一方面,它为我们的生活带来了诸多便利,像智能语音助手帮我们轻松处理各种事务、AI 智能安防让生活环境更加安全等等。

但另一方面,一些不法分子却动起了歪脑筋,利用 AI 技术来实施犯罪,如今,AI换脸技术已经不再是只存在于科幻电影中的情节了,它正逐渐成为不法分子实施网络诈骗的新手段,悄然侵袭着我们的网络安全防线。

打开网易新闻 查看精彩图片

不法分子们会将视频中的人脸替换成他人的模样,冒充亲人、朋友、同事或者领导等来借钱,他们只需要获取他人的一张照片或者一段语音,就能通过相关软件合成极为逼真的视频和声音,然后编造遇到困难急需资金等理由去实施诈骗。

在宁夏固原市,有一个实例,当地居民马某某在闲暇时浏览网络平台上的视频,突然收到了来自“表哥”的好友添加请求,在成功添加为好友后,“表哥”立即向他发起了视频通话。

打开网易新闻 查看精彩图片

他声称自己正在非洲工作,由于网络状况不稳定,不宜转账,但当前需要与公司签订一份合同,所以他希望马某某能够先替他向公司垫付合同所需的资金,等之后网络状况改善后再将钱款归还。

而马某也出于对亲戚的亲情和信任,根本容不得的拒绝,于是马某先后三次将总计15000元转到了对方指定的银行账户,然而,直到事后他通过微信向真正的亲戚核实情况时,才猛然意识到自己被骗了,原来,与他进行视频连线的“表哥”根本是个“冒牌货”,是骗子利用AI换脸。

打开网易新闻 查看精彩图片

被“表哥”骗了1.5万!AI换脸诈骗案细节曝光!警方提醒 2024-09-18 15:43 大庆晚报

在2023年,福州的郭先生不幸遭遇了一桩令人惊愕的诈骗事件,当时,他接到了一位自称“好友”的微信视频通话请求,对方声称自己正在外地参与一个投标项目,紧急需要430万元作为保证金。

但是,这笔资金需要通过公司对公司的账户进行转账,因此,对方希望能够借用郭先生所在公司的账户来“临时中转”一下这笔款项。

打开网易新闻 查看精彩图片

而郭先生看到对方是熟悉的面容,听到了熟悉的声音,郭先生便没有过多怀疑,直接将银行卡号给了对方,并声称已经把钱打到了郭先生的账户上,甚至贴心地把银行转账底单的截图通过微信发给了郭先生。

郭先生也十分相信自己的“朋友”,也没有看款项到账,直接将430 万转了过去,事后郭先生给自己的朋友发消息称事情已经办妥,但对方却对此一无所知,这时,郭先生才猛然惊醒,意识到自己被骗了,原来,与他进行视频通话的那个“好友”,竟是骗子利用AI技术合成的虚拟形象。

打开网易新闻 查看精彩图片

幸运的是,警方迅速采取了行动,福州与包头两地的警方与银行紧密合作,成功阻止了336.84万元的支付并进行了拦截,然而,仍有93.16万元的资金被不法分子转移,目前警方正全力以赴地进行追缴工作。

从这些案例不难看出,AI换脸骗局的迷惑性极强,稍不留意就可能让我们掉入陷阱,遭受财产损失,大家一定要提高警惕呀。

打开网易新闻 查看精彩图片

光明网2023-05-24《AI诈骗在全国爆发!诈骗成功率接近100%》

公众人物诈骗事件

如今,一些不法分子为了牟取私利,打起了公众人物的主意,他们利用 AI 技术,收集公众人物的照片,通过软件合成制作出看似真实的视频内容。

比如,有的骗子会制作出某明星推荐某产品的视频,视频里明星的形象、声音都和本人极为相似,声称这款产品有着神奇的功效,诱导粉丝们去购买消费。

打开网易新闻 查看精彩图片

有一位博主为了增加粉丝数量和获取更高的网络流量,从网上下载了某位著名女演员的照片,并将其合成为视频,并对该明星的绯闻和成名历程进行了不实的叙述,随后将这段视频发布在自己的短视频账号上,来吸取流量。

打开网易新闻 查看精彩图片

得知此事后,这名女星认为自己的姓名权和肖像权遭到了侵犯,于是决定采取法律手段维护自身权益,最终将这位博主告上了法庭,经过法院的审理,判决博主公开发布赔礼道歉的声明,并向女星赔偿经济损失共计2万元。

打开网易新闻 查看精彩图片

博主为涨粉合成女星视频被罚2万,法院:具有盈利的目的 2024-03-26 10:07·阎良区人民检察院

竟然有诈骗团伙冒充演员“靳东”,靠着假冒的身份博取中老年女性粉丝的信任,然后编造投资、公益、甚至是恋爱的各种借口,向她们索要钱款,竟然成功骗取了多位受害者,共计30多万元人民币!

这些现象都表明,利用 AI 合成公众人物视频误导粉丝消费的诈骗手段不仅存在,还侵犯了公众人物的肖像权等权益,涉及范围也越来越广,大家一定要提高警惕,避免掉入这样的陷阱中。

打开网易新闻 查看精彩图片

语音合成骗局

随着科技的日新月异,语音合成技术不幸落入不法之徒的手中,成为了他们诈骗的新“利器”,这些骗子利用语音合成技术,能够惟妙惟肖地模仿任何人的声音,并且通过精细调整语调和情感,达到极高的逼真度,几乎能够以假乱真的程度。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

在日常生活中,我们常因对熟悉声音抱持信任而降低防备,骗子正是利用这心理漏洞行骗,淮安的一位高一学生小丽就不幸中招,某日,小丽在QQ上收到初中好友小红的信息,声称手头拮据,请求小丽帮忙充值800Q币。

打开网易新闻 查看精彩图片

在她们的聊天中,当小丽听到那段语音信息,立刻辨认出那是小红的声音,鉴于两人曾是亲密无间的初中同学,小丽深信自己不会听错,于是按照小红的请求,通过第三方平台向小红的QQ账号充值了Q币。

然而,之后小红却告知小丽,她的QQ号被盗用了,小丽随即尝试帮助小红找回账号,但不幸的是,在这个过程中,小丽的QQ号也遭到了盗取,更糟糕的是,许多同学都收到了来自“小丽”的请求,让他们帮忙充值Q币。

打开网易新闻 查看精彩图片

事实上,这是不法分子在盗取小红的语音信息后,运用语音合成技术进行的诈骗活动,他们不仅假扮小红欺骗了小丽,还利用小丽的语音去诈骗其他同学。

再看江苏句容的杨女士,她也遭遇了类似的骗局,在收到多条自称为“女儿”发来的要求缴纳报名费的语音信息后,杨女士没有过多怀疑,便直接向骗子提供的账户转账了3.5万元,直到后来,她才意识到自己上当受骗了。

打开网易新闻 查看精彩图片

如今,AI 合成的视频和声音的逼真程度着实令人咋舌,迷惑性极大,普通人很难分辨出真假,对于老年人来说,就更是难上加难了。

曾经有记者做过相关测试,邀请了多位老人参与,在播放 AI 合成的声音以及展示 AI 合成的视频时,发现多数老人根本无法区分这到底是真人还是通过 AI 合成出来的,哪怕是亲人的声音、熟悉的面容出现在眼前耳边,老人们也很容易误认,这就给了诈骗分子可乘之机。

打开网易新闻 查看精彩图片

有些老人会接到自称是战友、外孙或其他熟人的电话,听到那熟悉的声音,即便对方编造的借口存在诸多不合理之处,老人们往往还是基于对声音主人的深厚信任,轻易就相信了对方,进而按照要求进行转账汇款,最后才发现上当受骗,可那时钱款往往已经难以追回了。

打开网易新闻 查看精彩图片

像这样的案例还有很多,骗子就是利用人们对熟悉声音的信任,让大家在毫无防备的情况下掉入陷阱,所以面对涉及金钱的请求,哪怕听到的是熟悉的声音,也一定要多留个心眼,仔细核实对方身份。

提高防范意识

在这个AI技术日益发达的时代,面对涉及金钱转账的请求,大家一定要时刻保持警觉,切不可盲目轻信,要知道,骗子们的手段越发隐蔽和巧妙,哪怕看似熟悉的场景、亲切的声音,都可能是他们精心设计的陷阱。

打开网易新闻 查看精彩图片

当接到诸如紧急借款时,一定要通过其他可靠的方式去核实对方的真实身份,比如,不要仅仅依赖于即时通讯软件里的对话,可以直接打电话过去,听听对方的语气、反应,询问一些只有彼此知晓的事情,或者换个社交平台再次联系确认,多一道验证的程序,就能多一份安全保障。

打开网易新闻 查看精彩图片

尽管如今的社交媒体高度发达,为我们提供了分享生活点滴和与人交流的便捷平台,但我们也必须时刻保持警惕,妥善保护个人信息,特别是那些涉及资金、金融、银行账户等敏感内容,更应谨慎处理,避免在网络上过度暴露。

打开网易新闻 查看精彩图片

要知道,骗子们会利用各种技术手段收集咱们在网上发布的信息,一旦个人信息被他们掌握,就很容易被精准定位,进而成为他们实施诈骗的目标,比如说,经常在社交平台炫耀自己的投资理财收益、详细透露自己的资金账户情况等行为,都是很危险的。

所以,咱们平时在社交媒体上要谨慎发布内容,对于一些要求填写大量个人敏感信息的陌生平台、应用等,也要保持警惕,避免随意注册、授权,防止个人信息被不法分子窃取利用,为自己的财产安全筑牢防线。

打开网易新闻 查看精彩图片

参考来源:
光明网2023-05-24《AI诈骗在全国爆发!诈骗成功率接近100%》
被“表哥”骗了1.5万!AI换脸诈骗案细节曝光!警方提醒2024-09-18 15:43 大庆晚报
AI换脸搭配声音合成,“好友”以假乱真骗走钱款 如何警惕AI“深度造假”?
博主为涨粉合成女星视频被罚2万,法院:具有盈利的目的2024-03-26 10:07·阎良区人民检察院
调查|不法分子盯上老年人,“AI换脸换声”难以辨别来源: 北京日报客户端