文/一碗葫芦

当我们在谈论AI强大和便利时,不可避免地会对其潜在的风险和危害感到担忧和害怕。

而现在,最让我们担忧的事情终于开始大规模发生了。

打开网易新闻 查看精彩图片

这两天,有关“AI诈骗”的事件冲上了微博热搜,引起了不少关注。

这件事发生在福州市一位科技公司的法人代表郭先生身上。

4月20号中午,郭先生突然接到了“好友”的微信电话。

对方表示自己正在外地竞标,需要430万保证金,并且要公对公转账(公司对公司的转账),所以想要借郭先生公司的账户走个账。

因为对方是通过微信电话的方式交流的,而且从郭先生的视角来看,这位朋友无论从面容还是声音来看都没什么不对劲的地方。

所以基于对朋友的信任,他没有犹豫的就给自己的朋友转账了。

——于是这位郭先生就在短短10分钟之内被骗走了430万元。

打开网易新闻 查看精彩图片

这件事情说新鲜其实也不算新鲜,因为一直以来电信诈骗的案例不在少数。

而这两年国家反诈中心也一直在推广和宣传反诈活动,通过加强大家的反诈意识,也的确有效的减少了此类事情的发生频率。

当然还是有很多被骗的人
打开网易新闻 查看精彩图片
当然还是有很多被骗的人

但这事儿可怕就可怕在——

骗子们利用了“AI技术”来实施诈骗,并且达到了以假乱真的程度。

打开网易新闻 查看精彩图片

从这件事情来看,骗子极有可能是先盗取了对方好友的微信,再利用AI换脸技术和AI声音技术佯装好友实施诈骗。

相信不少人已经对两项AI技术非常眼熟了。

事实上,从去年开始,有关AI换脸的视频就已经在网络上风靡了一段时间。

而随着AI技术的不断突破,到现在这个技术已经更为成熟,甚至还能做到像这件诈骗事件一样,和对方进行实时互动。

曾风靡B站一段时间的大司马换脸视频
打开网易新闻 查看精彩图片
曾风靡B站一段时间的大司马换脸视频

对于AI换声技术来说,我想最近大火的“AI孙燕姿”也是一个很好的例子。

通过AI技术合成的人声,基本上和原声有着90%的相似度,不仔细听根本听不出区别;

打开网易新闻 查看精彩图片

更重要的是,这项技术也没有任何门槛可言——只要能够收集到足够多对方的声音片段,你就能生成任何想要说的话。

而这个技术,对于电话诈骗可是再合适不过了。

或许很多人都具有一定的反诈骗意识,但是在如此高明的“新型诈骗”面前,我想也有不少人会被这种手段所欺骗。

所以在这里我还是要提醒大家,如果近期有朋友要向你借钱,并且金额还不小的话,一定要慎重慎重再慎重。

说个题外话——

十分钟,就能让朋友转几百万,这样的朋友里找啊(不是)

打开网易新闻 查看精彩图片

言归正传,随着AI技术的成熟,并且门槛越来越低,利用AI诈骗、制造不实消息等等不当行为也逐渐多了起来。

前不久,日本的一位“女议员”吸引了不少推特用户的目光。

根据网上的信息,这位女议员是日本内阁的“厚生劳动大臣”。

厚生劳动大臣是日本内阁中重要的职位之一,而且一般由执政党内的实力派议员担任,实力非同一般。

但大家之所以关注这位女议员,不为别的,实在是因为她的外形太引人注目了。

打开网易新闻 查看精彩图片

在大部分人的“刻板印象”中,议员这个职位总是严肃并且保守的。

但这位女议员,却打破了大家的固有思维。

一丝不苟的发型,让她的五官显得更为精致;即便是穿上正装,也难掩她傲人的身材。

就好像在平淡无奇的水波蛋上滴了几滴酱油,她的出现无疑为整个场合增添了几分魅力和生气。

打开网易新闻 查看精彩图片

外表和身份所带来的反差感,让这位女议员在推特上积累了超高的人气,只要有她的照片,随便一发都能带来几百万点击量。

打开网易新闻 查看精彩图片

虽说这位女性议员在互联网上引起了很大的轰动,但是很快,大家就发现:

原来一切都是假的,这位女议员根本不存在。

事实上,日本现任的厚生劳动大臣,其实就是一位看上去很“议员”的中年男性。

日本现任厚生劳动大臣
打开网易新闻 查看精彩图片
日本现任厚生劳动大臣

而这些女性议员的图片都是由一位叫做“AI川AI子”的推特用户跑出来的AI真人照片。

打开网易新闻 查看精彩图片

除了女议员,这位用户还po出了不少天气预报主持人、排球运动员等等偏正式场合的女性角色。

这位博主的XP清晰可见
打开网易新闻 查看精彩图片
这位博主的XP清晰可见

虽然是虚构的,但是这种女议员+好身材的组合似乎对大家有着致命的吸引力,在推特上,“爆乳党”这个tag已经成为了非常热门的标签。

打开网易新闻 查看精彩图片

而推主本人也发起了一个“招募成员”的活动,成功地召集了更多LSP们入党。

打开网易新闻 查看精彩图片

但话又说回来,即便只是一次整活,这次的事情也带来了一些不好的影响。

一方面,对于这位厚生劳动大臣本人来说,自己的身份被一位虚拟人物代替,或多或少也会让他感觉受到冒犯了。

而另一方面,像上面这样仅仅只用几张图片,就能让人对这个虚假身份信以为真的现象,已经足够让我们开始警惕AI造谣的情况。

如果说制作虚拟人物的涩图,还不足以和“AI诈骗”相提并论,那么将AI技术运用到真人身上,已经是实打实的触碰到了法律的红线。

从AI换脸技术投入使用开始,将色情照片和视频中的角色换成其他女性的视频就一直存在于网络上。

这些女性大多数是明星,但即便是拥有足够资源的明星,也无法完全阻挡这些视频的传播。

打开网易新闻 查看精彩图片

随着技术的成熟,不法分子开始向女主播或者是身边的女生下手,通过训练图库或者是换脸的方式,给她们带来了很大的困扰。

Twitch主播QTCinderella因此受到了很大困扰
打开网易新闻 查看精彩图片
Twitch主播QTCinderella因此受到了很大困扰

更有甚者,还有的人利用这项技术对未成年人下手,他们拍摄身边儿童的面部,并利用AI技术生成儿童色情图片,触碰更加阴暗的底线。

这位不法分子已被逮捕
打开网易新闻 查看精彩图片
这位不法分子已被逮捕

不难想象,缺乏管制的AI技术将会给我们带来怎样的影响。

尽管AI可以成为实用的工具,但是更大的可能是,它会成为不法分子手中诈骗和造谣的“凶器”,给我们带来更大的危害和损失。

我相信,未来一定会有相关的政策和监管来约束AI技术。

但在这之前,我想我们也有必要提高自己的防范意识,来有效维护自己的权益。

打开网易新闻 查看精彩图片