某一天,你闲来无事刷起了网络视频,这时“表哥”发来添加好友请求,你顺手点了添加。于是,“表哥”给你打过来视频电话,称自己在非洲务工,网络不稳定,不方便转账,但是目前急需和公司签订一份合同,希望你能帮他给公司垫付合同资金,等网络稳定后再还钱。

打开网易新闻 查看精彩图片

因为你已经在视频中看到了“表哥”本人,于是你帮他垫付了1.5万元。

之后,你在微信里与表哥确认这件事,却发现对方根本不知道这回事。这时你才知道,自己被诈骗了!

打开网易新闻 查看精彩图片

这不是随口编的故事,固原市辖区居民马某某因此被骗了1.5万元。

“表哥”取得马某某信任的关键是在视频里显示了一个“真实”的表哥,这是通过一种新的技术——AI动态换脸技术实现的。不了解情况的马某某因此被诈骗。

打开网易新闻 查看精彩图片

无独有偶,在黄海对岸的韩国引爆出“Deepfake”事件。只要在Deepfake中上传女性图片,就可以通过深度伪造技术换脸合成该女性头像的淫秽图像和视频。

打开网易新闻 查看精彩图片

在违法犯罪这条道路上,AI换脸技术劣迹斑斑。

AI换脸技术本可以是生产力辅助工具,例如不想露脸直播的主播可以通过AI换脸上线直播,商家可以通过AI数字人24小时直播带货。

打开网易新闻 查看精彩图片

即使是在这条“正确”的道路上,也有可能出现侵权的行为。如果把主播的脸换成类似杨幂的脸,是不是更容易获得流量,这就激发了潜在的侵犯女明星肖像权的冲动。

打开网易新闻 查看精彩图片

技术发展往往领先于法律法规,等相关法规出台后,行业会变得更加正规。虽是如此,仔细想一下AI换脸真的有存在的必要吗?哪怕是直播,平台的美颜功能跟换脸也没什么区别,还记得当年的乔碧萝吗?