相信大家都有这种感觉,自前段时间缅甸北部发生清剿活动后,电话诈骗的数量明显降低。
但这并不意味着我们就可以放松警惕,其实这些诈骗团伙如今早就开始用起了新的诈骗手法,甚至靠着这种方法,成功率近乎达到了100%。
而新骗局的第一个招数就是通过AI换脸的方式,将自己在视频当中显现出来的样貌,换成自己所想扮演的个人。
通过这一技术,骗子能够在视频对话的过程当中,扮演你的家人、朋友甚至是领导。
一般来说,再警惕的人,看到手机那边那张熟悉的面庞,基本上也都会放下戒心,甚至会觉得自己想的有点多。
诈骗人员在网上搜集目标人群之时,一定早就做足了准备,所以用AI置换的脸庞必定和现实生活中所差无几。
但这也并不意味着,AI换脸技术就没有破解之法,因为这种换脸是通过原主发出的照片和视频进行合成的,所以这就意味着,假的人根本没办法做出太多的表情,尤其是不知道如何眨眼睛。
所以当有家人朋友打视频电话过来,需要借钱的时候,不妨仔细观察一下他的眼睛,若是长时间未进行眨眼,则极有可能是通过AI技术合成的假人
新骗局的第二个招数,就是通过拨打诈骗电话,将原主的声音进行收集,并在收集后合成自己所需要的话语就可以实行诈骗了。
这种诈骗方式可以降低接听电话者的警惕心,尤其是模仿领导给下属布置任务,阻断了下属想要验证真实性的道路,从而提升了这一骗术的成功率。
一般遇到这种情况时,要么通过视频的方式验证,要么通过其他人再度联系一次,确定内容的真实性。
不过在这一过程当中,要提防诈骗团伙将第一个和第二个招数联合起来一同使用,造成更大的迷惑性。
新骗局的第三个招数为转发微信语音,要知道为了避免因为语音引发的一系列问题,如今的微信官方软件是没有转发语音这一功能的
但是诈骗集团为了方便自己的行动,特地研发了一款提取语音的插件,安装这一插件后,可随意进行语音转发。
骗子们通过团伙中的技术人员,盗取旁人的微信号,并通过微信中之前发送过的语音,合成自己所需内容的语音直接转发给列表的联系人员。
在这一过程当中,无论是聊天的语气还是语速,都和原主日常说话没什么区别。
再加上话语都是语音的方式发过去的,所以列表的联系人员很容易就会被欺骗,不得不说,当诈骗人员掌握了高科技,寻常人想要判断清楚对方到底是谁,的确不容易。
而新骗局的最后一种方法是要借助AI程序,对网络上的诸多用户进行分析,从而将目标人群进行分类,有的人适合用感情信息进行诈骗,有的人关注理财信息,可以用相关知识进行诈骗。
在总结分类以后,就可以立刻研发出一套针对他们的方案,这方案一旦实行几乎屡试不爽。
毕竟在对目标用户下手之前,都已经做好了充分的研究,连骗子们所说的话术,都是专门研究好的,怎么可能会达不到诈骗的目标。
那么面对日益强大的诈骗技术,我们究竟该如何应对,才能够让骗子团伙不能得手。
首先最应该做的事情,就是提高警惕心和防范意识,既然已经知道了如今诈骗有这么高的技术含量,就应该在日常生活中保持高度戒备,遇事多质疑,不要被几句话说服。
二是纵然如今年轻人愈发喜欢在网络上分享自己的生活,但为了防止成为诈骗团伙锁定的目标群体。
应该要注意,在分享的过程的当中,避免发布过多有关隐私的内容,以免被收集后,用来诈骗自己所熟识的人。
三是为了防止被诈骗团伙用专门设计的病毒插件对付,可以下载专门的防病毒软件进行克制,并且要定期对自己的账户进行查询,确保资金安全。
若是有人通过短信或者其他社交平台发送链接,也不要随意点击,以免出现问题。
四是当有人打着熟人的名义进行借钱的时候,应当要通过多平台查验的方式,确定身份,若是条件允许的话,也可以当面确认,若是相距过远,可通过询问多项问题确认对方的身份。
相信通过这四种方法,即使是诈骗团伙的技术高明,也无法从你手上骗走一分钱。
[免责声明]文章案例过程、图片都来源于网络,无低俗等不良引导。如涉及案件版权或者人物侵权问题,请及时联系我们,我们将删除内容!
参考资料:
一张照片可实时视频换脸!警惕AI合成这种新型网络诈骗手段
2024-08-18 15:04·央视新闻
警惕!AI诈骗来袭,成功率接近100%……
2023-05-20 07:30·光明网
全民反诈在行动|年末电信诈骗频发!小心别被你的“领导”骗了
2024-12-10 19:44·光明网
热门跟贴