Ai智能科技的飞速发展,给我们带来前所未有的奇妙体验!但有人就是动了歪脑筋,将这个AI智能技术用做诈骗。AI智能合成熟人脸和声音,10分钟被骗430万,微信视频以后也不可轻信了!太可怕了!

打开网易新闻 查看精彩图片

有人10分钟被骗430万,真是触目惊心!

事情是这样的:福州某科技公司郭先生有一天突然收到朋友微信消息,说是在外地竞标项目,需要430万保证金。需要公对公转账,基于对好友的信任,也通过了视频聊天确认,按理说是没有任何问题。

打开网易新闻 查看精彩图片

所以在钱没有到账的情况下,将自己的430万打到了好友朋友的银行卡。骗子通过AI换脸技术和声音合成成功诈骗!这样的事情如果发生在你身上,你能够识别吗?真是防不胜防!

AI换脸技术被肆意滥用,后果不堪设想

现在的AI技术已经特别厉害了,我们普通老百姓都可以通过软件轻松换脸,前几天我也试了一下这个换脸,真的还是那么回事。可以说特别的好玩。可以给大家看一下效果。是不是很逼真了!很多人都在短视频平台通过换脸技术做视频,玩的不亦乐乎!

打开网易新闻 查看精彩图片

现在这个AI技术特别厉害,不仅可以合成人脸视频还能合成真人声音。人脸图像和声音是一个人重要的生物特征,一旦被采集并经过大量的数据训练,成功克隆出一个数字人,一旦被利用,将给个人和社会带来巨大隐患和威胁。据说这种AI换脸技术大大提高了诈骗分子的成功率,成功率竟然接近100%!真是太可怕了!

如何防范骗子利用AI技术诈骗?

首先,对于我们个人尽可能的保护好自己的个人隐私数据,不随意将自己的个人敏感资料泄露到网络上。

第二,对于大额转账一定要多方核实,通过这个案例我们可以看到,仅通过和别人视频聊天已经不能保证绝对的安全。最好通过自己直接打电话核实。

第三,不断提升自己对于AI等技术了解,假的毕竟是假的,我们可以通过一些细节来辨别。比如伪造的视频人物眼睛瞳孔颜色不对,不会快速的进行眼珠的转动和眨眼频率不对,牙齿边缘过于整齐,嘴部运动是否连贯,人物视频分辨率不高等等。

第四,提升防诈骗意识。很多人被骗就是经历的太少,信息不对称造成的。特别是有人借钱转账之类的事情,一定要警惕!

总结:

AI技术发展到今天,机遇与风险并存,它是一把双刃剑!技术进步的同时,诈骗分子科技手段也在不断翻新升级!不了解,就可能上当受骗。唯有持续提升我们的认知和防范水平,才能正确应对当前AI智能环境下的不法侵害。以后转账之类的是不是都要经过当面确认才行?想想都害怕!

注:我是秦韵莞香,和你聊聊日常的数码科技、互联网趣闻,不定时更新,欢迎关注。原创文章,未经授权不得转载,侵权必究。