“这笔钱紧急,马上安排转一下。”当你收到领导这样一条消息时,你会怀疑真假吗?前不久,长春某建筑公司财务负责人罗女士在工作群里,收到了“董事长”的指示,要求她向多个账户打款。由于此前公司也有过类似资金往来,加上“董事长”催得急,罗女士没多想,赶紧安排出纳转账。可谁能想到,这个“董事长”竟然是冒牌货!就这么短短一会儿,罗女士所在公司就被骗走了60万元。
事实上,早在这场骗局发生之前,该公司总工程师的微信号就被盗过,虽说后来找回来了,可大家都没当回事儿。谁知道,盗号的人早就悄悄盯上了公司的工作群,不仅摸清了公司的组织架构、人员关系,还盗用了董事长和开发部部长的头像,玩起了“角色扮演”。
更离谱的是,骗子还以公司管理人员的身份,打电话给总工程师,把他拉进了一个有假董事长和假开发部部长的群,接着又让总工程师把罗女士拉进来。就这样,在熟悉的“工作场景”中,罗女士一步步掉进了骗子精心设计的陷阱。好在发现及时,罗女士迅速报警,警方通过国家反诈中心平台紧急止付,这才把60万元被骗资金追了回来。
微信被盗用、AI换脸、声音合成……如今,随着人工智能(AI)技术的迅猛发展,诈骗手段也变得越来越高科技,让人防不胜防。就拿AI换脸来说,骗子只要收集一些目标人物的照片或视频,通过AI技术就能生成以假乱真的人脸视频,再结合声音合成技术,简直能把人“完美复刻”。想象一下,你突然接到一个视频电话,对方的脸和声音都和你熟悉的朋友一模一样,还在电话里着急地向你借钱,你能保证自己不会上当吗?
在山东,一个诈骗团伙利用AI换脸技术,伪造“驻湖南部队军官”的身份,和独居多年的梁某谈恋爱。他们不仅每天嘘寒问暖,还发身穿军装训练的视频、进行视频通话展示军营环境,取得梁某信任后,诱导她投资,最终骗走534万元。
除了以上这些,AI诈骗还有很多“花样”。比如,骗子利用AI程序分析公众在网上发布的信息,筛选出容易上当的人群,再量身定制诈骗脚本;通过骚扰电话录音提取某人声音,合成伪造语音进行诈骗;盗取微信号后,转发之前的语音骗取好友钱财……这些骗局看似复杂,但只要我们多留个心眼,仔细甄别,很多时候是可以避免的。
AI确实给我们的生活带来了前所未有的便利,语音助手能快速帮我们查询信息、智能推荐系统能精准推送我们感兴趣的内容、智能家居设备让生活变得更加舒适便捷……可与此同时,它也带来了一系列数据安全和个人隐私方面的隐患。 当我们在享受AI带来的个性化服务时,殊不知自己的个人信息,如浏览记录、购买历史、位置信息、语音指令等,正源源不断地被收集和分析。
这些信息一旦被泄露或滥用,后果不堪设想。比如,我们的个人信息被贩卖、收到大量骚扰电话和垃圾邮件、遭遇精准诈骗,甚至个人信用、健康等敏感信息被泄露,严重影响生活和财产安全。 甚至我们常用的各种智能设备之间还能互通互联,个人信息在不同平台和设备之间共享,进一步增加了隐私泄露的风险。比如,家里的智能摄像头,如果安全措施不到位,就可能被黑客入侵,成为泄露隐私的“眼睛”。
面对AI发展带来的种种隐患,国家出台的《人工智能生成合成内容标识办法》正式生效,明确要求各类生成合成内容,包括文字、图片、音频、视频等,都要显著标识,让大家一眼就能分辨出哪些是AI生成的,可以有效避免公众被误导。对于我们普通老百姓来说,凡是涉及到金钱交易或敏感信息时,一定要通过其他可靠途径二次确认,比如拨打对方常用且自己熟悉的电话号码,或者找共同认识的第三人进行核实,避免被骗。 另外,平时上网,千万别随意点击陌生链接、扫描不明二维码,也别在公共Wi-Fi环境下进行支付等敏感操作。下载软件一定要从官方正规渠道,还要安装可靠的安全软件,给手机、电脑等设备筑牢安全防线。设置密码时,尽量用强密码,定期更换,不同平台别用同一个密码,最好开启双重验证。总之,无论什么时候,都千万别把验证码、密码、身份证号这些重要信息透露给陌生人。 AI时代,科技在进步,骗子的手段也在升级。我们要时刻保持警惕,增强隐私保护意识,掌握识别骗局的方法,同时国家和社会在积极地进行监管,相信在不久的将来我们能放心地在享受AI带来便利的同时,有效保护好自己的隐私和财产安全。
热门跟贴