Jennifer 在 2023 年换了份非营利机构的研究工作,入职前她做了一件很多人不会想到的事:把新拍的职业照扔进人脸识别系统,搜搜会不会跳出自己十几年前的旧视频。那时候她二十出头,拍过一些成人内容。结果系统不仅找到了那些老视频,还蹦出一段她从没见过的画面——熟悉的背景、熟悉的身体,但脸上贴着一张别人的脸。

"一开始我真以为那是另一个人,"Jennifer 说。她注意到背景里那块花哨的布景,是 2013 年自己用过的,这才反应过来:有人拿她的身体做了深度伪造视频。

打开网易新闻 查看精彩图片

更诡异的是,人脸识别系统之所以能认出她,是因为那张假脸上还残留着她的骨相——颧骨、眉弓、下巴的轮廓。"就像我戴着别人的脸当面具,"她形容道。

关于"性化深度伪造"(属于非自愿私密影像,简称 NCII)的讨论,通常聚焦在两类人身上:一是那些被换脸、被迫"出演"自己没拍过的内容的受害者;二是那些脸被贴在陌生身体上的当事人。前者往往是名人,后者近年来波及更多普通女性甚至未成年人,引发了立法和社会关注。但 Jennifer 指出了一个被忽略的角落:这些视频里的身体,到底是谁的?

答案通常是成人内容创作者。深度伪造(deepfake)这个词本身就是 2017 年 11 月从 Reddit 火起来的——用户"deepfakes"上传了把斯嘉丽·约翰逊盖尔·加朵等明星的脸换到色情演员身上的视频。专攻成人娱乐业的律师 Corey Silverstein 说,色情演员的身体被非自愿使用"一直都在发生"。

但最近情况变得更复杂了。生成式 AI 突飞猛进,"脱衣"应用遍地开花,创作者面临的威胁从"被换脸"升级到了更隐蔽的层面。色情演员的身体不再只是被直接截取、拼接,而是被打碎成训练数据,喂给 AI 去学习人体该怎么长、怎么动、怎么表演。这意味着他们的劳动成果正在教会机器生成虚拟裸体,而这些 AI 产物反过来可能抢走他们的饭碗。

更麻烦的是,技术进步已经让"完整复刻"成为可能——不只是脸,而是整个人的 likeness(形象特征)。Jennifer 今年 37 岁,现在纽约当心理治疗师。她的经历像是一个预警:当你的职业履历需要和人脸识别系统打交道时,二十年前的身体可能以你认不出的方式重新浮现。