□记者 于晗

随着AI技术迅猛发展,电信诈骗手段也逐渐科技化,一些诈骗团伙用上了“AI换脸”技术。近日,内蒙古包头警方公布一起利用AI实施电信诈骗的典型案例,引起公众对AI安全的广泛热议。作为反诈重点领域,银行业无疑也将遭遇新考验:当AI诈骗手段日渐丰富,各类案件层出不穷,该如何防范?

打开网易新闻 查看精彩图片

“AI换脸”引发诈骗案

在该案件中,福州某科技公司的法人代表郭先生基于对好友的信任,加上已经视频聊天“核实”了身份,为“好友”提供了430万元的“过账资金”。事后,郭先生拨打好友电话才得知被骗,原来骗子通过“AI换脸”和拟声技术,佯装好友对其实施诈骗。

“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。幸运的是,在包头警方的介入下,336.84万元被骗资金已经被警方拦截。但案件公布后,仍引起外界对于AI安全的广泛讨论和担忧。

一位AI从业人士介绍,由于深度合成技术的开放开源、深度合成产品和服务的增多,深度合成内容制作的技术门槛越来越低。技术的“平民化”,使得利用“AI换脸”“AI换声”等虚假音视频进行诈骗、勒索、诬陷、诽谤等违法行为和事例出现。

AI诈骗案件增多,作为资金交易和转账的关键环节,银行业无疑将承担起更加艰巨的反诈压力。如何更有效地防范风险,成为银行机构需要面对的问题。

企业信息使用合规是关键

“目前,在典型的‘AI换脸’诈骗行为中,诈骗者往往会通过非法途径获取大量的高清人脸信息,然后利用AI技术软件分析脸部特征、实施换脸行为,再通过合成的视频或照片伪造成他人实施诈骗。因此,人脸信息的收集使用合规性,以及人脸合成技术的合规管理等需要引起重视。”TalkingData法务总监兼数据合规官葛梦莹说。

去年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,对人脸生成、替换、操控,合成人声、仿声等深度合成技术提出明确约束。近日,国务院办公厅印发的《国务院2023年度立法工作计划》显示,人工智能法草案等预备提请全国人大常委会审议。可见,在法律规制方面,我国已对AI的快速发展及相关风险给予重视。

葛梦莹认为,如果企业(包括银行)涉及人脸信息处理行为,需要严格遵循最小必要原则来处理人脸信息,要特别关注人脸信息的全生命周期合规性,保证合规收集使用,禁止违法向第三方提供人脸信息,并应采取措施保护人脸信息的安全,防止信息泄露等安全事件的发生,使得诈骗者无法从此类企业处违规获取人脸信息。

个人应加强信息安全保护

风险不可避免,对于相关平台和个人而言,又该如何利用“魔法”打败“魔法”?

《中国银行保险报》记者注意到,目前,针对AI诈骗,不少金融机构已采取了一定的防范举措与技术应用。比如,活体防伪、中介识别等技术在金融业务场景中得以落地。

“活体防伪、中介识别等技术的核心功能便是能够避免人脸识别的自身缺陷,有效识别照片、视频、面具、仿真模型等,特别是上述案件中出现的换脸、变声欺诈行为。”马上消费人工智能研究院智能核身专家冯月表示,基于此类技术创新,目前能够做到将99%的批量欺诈攻击拦截在外,有效防范伪造信息、伪冒申请、电信诈骗等风险。

“相较于处于整体环节末端的金融机构,再更前一步,社交平台亦有义务引入鉴伪机制,并实时对用户进行通话鉴真提醒,标记用户是否有行为异常、图像伪造异常、声音伪造异常。更早的风险提示信息,可以更有效地阻隔风险结果的发生。”冯月表示。

值得注意的是,近期,某社交媒体平台便发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严厉处罚。

而作为反诈的核心主体,社会公众也有必要建立起相应的认知和防护能力,加强对个人物品、信息安全保护。

贝叶思咨询研究员周香君表示,对整个社会来说,一是要全面普及AI诈骗的多种方式,提高全民警觉心。二是要加强监管,不断完善社会监测监督体系和相关法律法规。三是提高全民安全意识,保护个人信息。