你发在Instagram上的泳池自拍、拿铁照片,可能正被陌生人拿去训练AI生成色情内容——而且有人专门开课教人怎么做。

这不是技术恐慌的假设场景。亚利桑那州3名女性已经起诉,指控3名男子系统性地盗用她们的照片,制作AI色情网红账号,并开设付费课程向他人传授整套方法。

打开网易新闻 查看精彩图片

被复制的普通人

MG(诉讼中使用化名)的生活轨迹原本毫无特殊之处。二十多岁,住在斯科茨代尔,做私人助理,周末兼职服务员。Instagram账号9000多粉丝,发发和朋友喝抹茶、上普拉提的日常。

「我从没想过要在社交媒体上爆红,」MG在诉讼中陈述,「就像大多数人最初用这个平台一样,只是和最亲近的人分享生活。」

去年夏天,一条站内消息打破平静。粉丝问她:知不知道有个长得和她一模一样的人,正在Instagram上流传?

她点开链接,看到多条Reels视频——她的脸被叠加在看似她本人的身体上,穿着暴露,纹身位置分毫不差。「如果不熟识我,完全可能以为那就是我本人的照片,」她说,「这就像一记警钟:我对自己形象毫无控制权。」

更令她震惊的是后续发现。这些被篡改的裸照和暴露照片不仅在网上流传,还被用于宣传一个名为AI ModelForge的平台。该平台提供在线课程和教程,据称教授订阅者使用CreatorCore软件,以不知情年轻女性的照片训练AI模型,并将生成内容发布至Instagram和TikTok。

「他们提供了一整套操作手册,包括如何挑选不会反抗的目标——专门教人筛选哪类女性、去哪里找照片,」MG指控,「每个层面都令人作呕。」

正方:技术中性与商业创新的边界

如果我们暂时搁置道德立场,AI ModelForge的模式确实击中了某些市场需求。

虚拟网红(Virtual Influencer)本身并非新鲜事物。从Lil Miquela到国内的AYAYI,数字人早已证明商业可行性——无需真人出镜、不会变老、不会塌房、7×24小时工作。据行业估算,顶级虚拟网红单条合作报价可达真人网红的数倍,且制作成本随技术普及持续下降。

CreatorCore这类工具的技术逻辑并不复杂:基于扩散模型(Diffusion Model,一种通过逐步去噪生成图像的机器学习技术),以数十至数百张目标人物照片为训练数据,生成保持面部特征一致的新图像。技术层面,这与合法的数字分身服务(如部分电商平台为店主生成的AI形象)并无本质区别。

课程商业模式也经过精密设计。订阅制付费、阶梯式教程、社群运营——典型的知识变现路径。平台据称提供的「选品指南」甚至体现出某种「风控意识」:挑选影响力有限、缺乏法律资源的普通人,降低被曝光和追责的概率。

从纯商业视角,这是一个识别需求、控制成本、管理风险的完整闭环。

反方:系统性掠夺的工业化

但商业闭环的每个节点,都建立在对他人的系统性侵害之上。

首先是数据获取的非法性。MG的Instagram账号设为私密,照片仅限好友可见。被告据称通过伪造身份、社交工程或其他手段获取这些本不应公开传播的图像——这已超出「公开网络数据采集」的灰色地带,构成对私人领域的侵入。

更关键的是「同意」的彻底缺席。传统色情产业中,参与者至少知晓自身形象将被用于何种用途,并(理论上)保有拒绝权。而AI生成模式将「同意」环节完全删除:被拍摄者、被训练者、被展示者,全程不知情、无授权、无收益。

平台据称提供的「选角策略」进一步暴露其预谋性。专门挑选「无法自卫」的目标——这意味着施害者清醒认知自身行为的违法属性,并主动筛选维权能力最弱的群体。这不是技术滥用的副产品,而是经过计算的伤害优化。

技术层面的「逼真度」加剧了伤害烈度。MG强调,生成的图像「如果不熟识我,完全可能以为那就是我本人」。深度伪造(Deepfake,一种利用AI替换或生成视频/图像中人物面部特征的技术)的恐怖之处正在于此:它制造的不仅是虚假内容,更是无法澄清的身份混淆。受害者被迫持续自证「那不是我真的做过的事」。

我的判断:当「创新」成为掠夺的修辞

这起诉讼的核心矛盾,不是技