风险点随着人工智能技术的普及和开源工具的易得性提升,犯罪分子开始大规模利用AI换脸、语音合成技术实施金融诈骗。在视频通话中,骗子可以伪造亲友、银行客服、企业高管的面容和声音,要求受害者转账、提供验证码或进行人脸识别。这类诈骗的迷惑性极强,因为“眼见为实”的传统认知被技术彻底颠覆。
诈骗分子通常通过社交媒体获取目标人物的照片、视频和语音素材,仅需数秒的语音样本即可合成高度逼真的声音。更令人担忧的是,部分金融机构的人脸识别系统已被发现可被AI换脸技术绕过,这意味着仅凭人脸识别已不足以作为安全的身份验证手段。“眼见为实”的时代正在过去,消费者和企业都需要更新对身份核验的认知。
具体表现
通过社交媒体获取目标人物的照片和语音素材
在视频通话中伪造“亲友”面容,称“出车祸”“被绑架”要求转账
伪造“老板”视频,要求财务人员向指定账户转账
利用AI换脸尝试通过部分人脸识别验证系统
识别方法
AI难以完美伪造真人视频中的微表情、眨眼、侧脸动作,要求对方做“转头”“眨眼”“侧脸”等快速动作验证
与家人约定只有彼此知道的“安全暗号”
防范措施
涉及资金操作,必须通过另一渠道(原存续电话、面对面)核实
挂断视频,回拨原号码确认——不要使用视频中提供的电话号码
不要在社交媒体上传高清正面人脸视频
AI换脸、语音合成可伪造任何人——视频通话不再足以作为唯一核验依据
热门跟贴