今年春晚,AI也没少做广告,如今AI已经深入我们的生活了。

春节前后也是AI产品扎堆发布的时候,大家用AI新产品,发现AI视频生成可太厉害了,换个脸分分钟。

这就有可能出问题,近年来AI换脸危害已经很大了。

有些人要么出于恶意,要么为了牟利,用AI合成色情照片、视频,对他人身心造成严重伤害,连带着不小的财产损失。

比如去年广州国际车展后,网上很快流传一段视频,视频里的某品牌汽车前,一位绿裙女子做出低俗不雅的动作。

这样的不雅视频流传开,会让该车企和低俗挂钩,品牌损失惨重。

于是车企迅速辟谣该视频为“AI技术生成”,强调“从未邀请模特及演艺人员”,还报了警。

有法务部就是不一样,证据收集、辟谣、报警一气呵成,迅速查到了制作视频的人并且行政拘留了。

但普通人没有法务部,面对类似问题就非常棘手,尤其是现在AI换脸已经非常成熟,甚至能低成本批量生成不雅图片或视频。

以前没有AI生成图片或视频,光靠人工PS或者合成视频需要很高的技术水平,较长时间,修改痕迹也很重。

AI生成图片或视频刚出现的时候,也不太好用,需要多达50张多角度、高清晰度的照片,才能实现较为自然的视频合成,但技术门槛已经大大降低,合成速度也加快了。

如今AI技术进一步发展,只需要20张左右的照片就可以实现AI换脸,很多人在公共平台上的露脸照片可不止20张,这就让AI换脸门槛进一步降低。

自己不会换也不要紧,花个十几块钱就能定制一部换脸视频。

普通人面临的,就有可能是多次低成本AI换脸造谣——十几块钱,就能让任何人“有视频有真相“地泼上乱搞的脏水。

更严重的是AI换脸造黄谣还会被用在诈骗上

如今骗子找到一个人二十多张照片非常容易,拿这些照片,用AI换脸生成一段黄色视频,发给受害者。

打开网易新闻 查看精彩图片

受害者惊疑不定时,骗子就会威胁,不给钱就群发出去,让受害者丢脸,受害者会害怕视频传播,向骗子转账。

转账一次,骗子不会满足,也不会删除视频,反而过段时间接着敲诈受害者,美其名曰 “删除费”、“手续费”。

与出于恶意污名化女性的AI造黄谣不同,这种合成AI黄片往往敲诈的是中老年男性。

中老年男性往往好面子,不熟悉新技术,又有钱,就容易被骗子用AI黄谣敲诈。

我相信我们的读者朋友们洁身自爱,遇到这种造黄谣,不管是不是AI合成的,都不会恐慌,只要自己清白,就知道这些视频都是假的。

不恐慌,就不会点击骗子给出的链接不加骗子好友,也不会转账,而是第一时间报警。

春节期间,大家也要注意节前骗子冲业绩,说不定会用AI合成黄色视频反复轰炸你的手机。

大家可千万别上当。

参考资料:

“AI生成车展不雅视频”事件的背后 https://mp.weixin.qq.com/s/QGVsPI74pDTtW_aA7U2tew?scene=1&click_id=1

不敢告诉子女!常州一六旬男子,突然收到自己的“不雅照” https://mp.weixin.qq.com/s/0Tsj3kySsaNRxOwlsb55kQ

阜阳有人收到合成不雅视频勒索短信!此类情况需警惕! https://mp.weixin.qq.com/s/5RPixUy4kn4mikambFIM8A

警惕!女性面容被恶意嫁接色情视频,几元就能“定制” https://mp.weixin.qq.com/s/6qsm9kx5Z0ZYd0zjatjSgA

短剧账号AI恶搞演员不雅照被封_新浪财经_新浪网 https://finance.sina.com.cn/jjxw/2026-01-05/doc-inhffsft8130886.shtml

来源 | 非凡油条(ID:ffyoutiao)

作者 | 豆腐乳儿 ; 编辑 | 呼呼大睡

内容仅代表作者独立观点,不代表早读课立场