打开网易新闻 查看精彩图片

最近香港一个公司职员,参加总部CFO(首席财务官)举办的多人视频会议,然后按照会议上领导的要求转账了2亿港元,谁知道转账完后向总部查询才知道上当了:视频会议中所有人全是假的,都是AI换脸的。

打开网易新闻 查看精彩图片

很多人不知道这种案件是怎么发生的,其实原理并不复杂,诈骗 人员 肯定是团伙作案,做了很 久的布局,比方说冒 充职 员 或者其他方式 偷 偷录制 这个公司相关人员 的视频和 声音,然后使 用 AI软件 生成对 应样本,然后黑入 视频会议系统并 开启人物AI换脸 即可。

如果你使用过抖音出品的剪映,可以体验类似的功能,数字人+模仿音色。前者是一个制作好的人物视频样本,模仿音色功能可以在几秒钟内模仿出你的音色,然后你打一段文字,就可以让数字人按照你的音色朗读朗读指定的文字,数字人朗读的时候口型都能对得上。抖音为了防止这种AI技术被滥用,是做了限制的,比如只能用系统内置的数字人,模仿音色必须要录制者念一段文字才能模仿。

目前市面上一些稍微复杂的开源AI软件,可以模仿任何人的音色,制作任何人的数字人样本,这就给了一些别有用心的人可乘之机,将其用在非法用途上。随着技术的日渐成熟,这些功能迟早会平民化,人人都能制造出AI换脸+模仿音色功能,让你很难分辨出视频的真假。利用AI造假欺诈、勒索的案件可能会持续一段时间。

打开网易新闻 查看精彩图片

AI换脸,一般是换领导等上级的脸,以上令下实现目的。 如何对抗AI模仿?

1、利用技术的漏洞。

目前的AI技术其实还不算成熟,它依靠海量数据的动作进行推理,所以,你只要对方做一个少见的动作,AI学习的数据里没有这个动作,就容易 露出马脚 。

比如有技术专家说可以让对方在视 频前 手捏 脸和 鼻子,看视频中对方的脸或鼻子 是否 会变形。但这只 能短期应对,AI 训练迟早会在对抗中演化完善。

还有类似的办法是让对方的手掌在脸前面快速挥动,看脸是否会变,这其实也是考验AI换脸主机的性能,实时换脸非常耗费算力,突然在脸前加入其他元素,会加大计算难度,造成换脸延迟。

但这两种办法都有一些不方便的地方,首先技术可能会补上漏洞,其次有时候你要求对方去做一些动作很奇怪。

打开网易新闻 查看精彩图片

2、古老的虎符原理

虎符是一种实物化的暗号:春秋战国时期,曾流行过虎符,一只身体刻有文字的老虎模型分为两半,君候一半,出征在外的将军一半,使者带着君候那一半去找将军完美合在一起,就代表着将军可以开战或其他指示。

打开网易新闻 查看精彩图片

因此视频会 议双方,如 果发 生重大决策,可以使 用双方事先约定过 的暗号 , 对上了暗号 另一方 才可执行。这个暗号可以是虎符那样少见的 实物视频互相 验证。

也可以是一段口令,比如你 说“ 天王盖地虎 ”,对方 必须 回答“洋葱炒豆腐 ”才算对上口令,回答错误立刻结束会议 。这种方式虽然很古老,但是很管用。

如果是亲朋好友,可以提问对方一件双方都知道,但外人不知道的事件,来确认是否是对方。

3、主动验证

香港的职员如何发现受骗,是因为他时候向总部打电话查询验证的。

如果在发生重大决策前,当场就打电话或许可以避免。毕竟固定电信和移动通信运营商线路是很难被入侵的,直接拨打对方电话也是比较可靠的验证方式。

一定要反拨对方的号码,因为你接的电话可能受到伪基站或者VOIP设备影响,但你反拨回去一般不会出错,打过去说刚才不小心电话挂了,然后再确认消息。

不盲从、看世界,从现在开始

珍爱老桃,顺手“在看”