随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI换脸技术。
近日,包头警方发布一起利用AI实施电信诈骗的典型案例。4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金。基于对好友的信任,加上已经视频聊天核实了身份,郭先生分两笔把430万转到了好友朋友的银行卡,期间也没有核实钱款是否到账。此后,郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。
幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。
案件披露后,“AI诈骗正在全国爆发”话题一度冲上热搜第一,引发网友热议。
科技公司老板
10分钟被骗走430万元
4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他,两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。
郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
4月20日12时21分,包头市电信网络犯罪侦查局接到福建省福州市公安局刑侦支队的外协请求,称福建省一知名民营企业负责人被骗走430万元,而涉案的银行卡为包头市蒙商银行对公账户,希望包头警方能够帮忙进行紧急止付。
包头市公安局电信网络犯罪侦查局立即启动“包头市警银联动绿色查询机制”,当班民警以最快速度完成核查、报审程序,第一时间将涉案卡的信息通报至蒙商银行相关部门。在银行的全力协助下,仅用时10分钟,就将该诈骗账户内的336.84万元被骗资金成功拦截。同时,向福州市公安局警方提供了剩余款项93.16万元资金流出信息,为深入突破该案剩余资金查找提供了突破方向。目前,福建警方与包头警方对此资金正在全力追缴当中。
对此,包头警方提示:针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
AI诈骗层出不穷
随着ChatGPT和各类AI技术的广泛应用,AI诈骗手段日渐丰富,各类案件层出不穷。
4月7日,浙江杭州萧山区检察院曝光的一个“女神群”引发关注。
据了解,80后安徽小伙虞某在网上推广AI换脸技术及相关的软件从中获利。为吸引他人关注,虞某将原本“换脸软件资源群”的群名更改为“女神试看群”,通过互联网下载了部分淫秽视频,截取片段后发布在该公开群中,吸引、招揽观看者加入,观看者若要看完整版则需缴纳198元-498元不等的“会费”进入“内部群”。此外,虞某表示,顾客还能使用不同的女明星的形象,进行“私人定制”。截至案发,公安机关共在虞某所组建的公开群内查证淫秽视频1200余部、图片1600余张,经鉴定,上述均系淫秽物品。2023年3月28日,萧山区检察院依法以制作、传播淫秽物品牟利罪对虞某提起公诉。案件目前正在法院审理中。
对此,萧山检察官提醒,“AI换脸技术”即便只是用来搞笑或者制作恶搞照片,也有可能涉及侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪。希望大家依法使用该项技术,一旦遇到类似本案中利用“AI换脸技术”实施犯罪行为的,应第一时间固定证据,并及时向司法机关报案。
多起AI换脸事件也引起了网友的热议:
除利用AI换脸诈骗外,还有人利用ChatGPT炮制不实信息。不久前,甘肃平凉市公安局网安大队就侦破一起类似案件。
4月25日,平凉市公安局崆峒分局网安大队在日常网络巡查中发现,某百度账号出现一篇标题为“今晨甘肃一火车撞上修路工人 致9人死亡”的文章,初步判断为信息虚假不实。
民警发现,共计21个百度账号在同一时间段发布该文章,文章内容地点涉及全国多地。经查,涉案百度账号均为深圳某自媒体公司所有,其法人代表洪某弟有重大作案嫌疑。原来,洪某弟购买大量“百家号” ,并通过ChatGPT人工智能软件将搜集到的热点新闻修改编辑,随后上传赚取大量流量获利。目前,洪某弟已被采取刑事强制措施,案件正进一步侦办中。
查处现场
三部门发布《互联网信息服务深度合成管理规定》
针对技术手段日益更新的AI诈骗事件,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。国家互联网信息办公室有关负责人表示,出台《规定》,旨在加强互联网信息服务深度合成管理,弘扬社会主义核心价值观,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
近年来,深度合成技术快速发展,在服务用户需求、改进用户体验的同时,也被一些不法人员用于制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。出台《规定》,是防范化解安全风险的需要,也是促进深度合成服务健康发展、提升监管能力水平的需要。
图片来源:@人民日报微博截图
《规定》明确了深度合成数据和技术管理规范。要求深度合成服务提供者和技术支持者加强训练数据管理和技术管理,保障数据安全,不得非法处理个人信息,定期审核、评估、验证算法机制机理。深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
AI诈骗常用手法
第一种: 声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
案例
某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
第二种:AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
案例
近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
第三种:转发微信语音
微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
第四种:通过AI技术筛选受骗人群
骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
举个栗子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。
运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?
如何防范?
HOME
面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:
多重验证,确认身份
01
在涉及到转账交易等行为时,小伙伴们要格外留意,可以通过电话、视频等方式确认对方是否是本人。
在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
保护信息,避免诱惑
02
加强个人信息保护意识,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
相互提示,共同预防
03
这些高科技手段的诈骗方式,迷惑了很多小伙伴。警察蜀黎也提示各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
拒绝诱惑,提高警惕
04
小伙伴们要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。
媒体声音
针对近日出现的AI诈骗案例,光明日报微信发表评论,题为《用AI换脸来诈骗,防不胜防?》。评论认为,“AI诈骗看似一个新问题,其实又回到了个人信息保护上。”
诈骗分子之所以能够鸟枪换炮,就是因为之前他们可以购买的是姓名、住址、亲友关系等社会信息,而如今他们可以获取人脸、人声等生物信息了,并且可以利用技术软件进行合成。那么,是谁在充当这个技术中介?这是非常重要的一环,只要打断了这个中间环节,AI诈骗也就失去了技术前提。
从目前爆出的案例来看,对于AI诈骗,基本都是事后追查打击,这其实是很被动的。接下来,治理AI诈骗的工作应该进一步前置,多在预防环节下功夫。而对个人信息的保护,就是最好的预防。
我们常说,科技是一把双刃剑。如果前些年,科技的伤害之刃还处于一种“划伤”阶段,那么如今在一些领域已经出现“刺痛”感了。而疼痛是保持清醒最好的方式。眼下,看着别人被骗几百万,所有人都应该警惕,这样的技术侵害是无差别的:任何人的脸与声皆可合成,即使不被用于诈骗,谁又能保证不被用于其他侵害呢?
来源:新华每日电讯综合人民日报、“网信中国”微信公号、平安包头、新甘肃客户端、东方网、武汉市反电信网络诈骗中心、光明日报(作者:李哲)
责编:叶子
校对:叶子
热门跟贴