一张脸从手机摄像头进入AI系统,只需要十几分钟。但从AI系统里把这张脸完整撤回,可能要耗上几个月,最后只换来一句道歉。

这不是假设。我的同事熊猫刚把自己的脸借给了做AI短剧的朋友,流程简单得像修图——下载APP,录一段10到15秒的视频,朗读几行文字,人脸采集就完成了。但之后这张脸会出现在哪里、演什么角色、会不会被塑造成令人厌恶的形象,完全不受控。

打开网易新闻 查看精彩图片

当普通人的脸成为AI短剧的"免费群演",我们到底在出借什么?又能守住什么?

短剧寒冬,催生了"借脸"生意

2026年春节后,短剧行业经历了剧烈收缩。头部平台大幅砍掉对中小制作方的补贴激励,剧组数量和开机项目锐减。

补贴停发的根源在于行业此前的承制选本模式:平台开放剧本库,制作方完成制作并在平台播出,平台给予保底激励和分账。一部单集1—2分钟、共80集的中腰部短剧,制作方原本能拿到20万至35万保底,覆盖演员、拍摄、器材等基础成本。

现在这笔保底不再普惠,仅对少数优质项目开放。绝大多数中腰部制作方填不上成本缺口,但已立项的剧还得拍完。降本增效成为唯一出路:一靠AI,二靠素人。

资金紧张的中小公司直接放弃实拍,全程用AI工具完成从剧本到成片。0真人出演,制作成本可降至原来的一半甚至十分之一。

但即便全程AI制作,为让角色人脸更贴近真人,仍需有授权的真实人脸作为参考。一些平台还规定,用户必须完成真人校验才能出镜。向亲戚朋友借脸,或找素人低价买脸,成了小微团队在合规与降本之间的折中选择。

熊猫的脸,就是这样被借出去的。

一张脸的AI漂流:从采集到"永生"

借脸过程的技术门槛极低。在手机上下载专门的AI视频APP,按指引录制短视频,自然朗读APP给出的几段文字,全程线上操作,十几分钟完成人脸采集。

但这只是开始。脸部数据随后进入平台的人脸识别大模型,被标注独有的面部特征——五官比例、脸型轮廓、肤色、眉形等静态特征,以及眨眼频率、嘴角弧度、面部肌肉运动轨迹等动态特征。脸被完全数据化。

生成模型据此建模复刻,捏出数字人。平台针对每个人的面部特征建立"特征锚点",嵌入AI生成模型,确保数字人脸在场景切换、动态过程中保持 likeness,不会"掉脸"或变脸。

创作者输出剧情脚本,附上角色参考照片,艾特数字人,AI自动适配,脸就被放进对应角色里。短剧拍完,这张脸能功成身退吗?

问题在于那个被随手勾选的默认协议。主流AI短剧平台的制式协议中,往往要求用户授予"全球范围内、免费、非独家、可多层次再许可的权利"。

这意味着个人肖像的复制、传播、表演、展示等权利都被授权给平台,后续可能用于制作其他短剧、广告,甚至被转授权给第三方。脸脱离视线与掌控,永久成为AI短剧的"打工人"。

正方:技术民主化,素人也能当"演员"

从用户视角看,借脸AI短剧确实提供了新鲜体验。一些素人观众刚被借脸时感觉新奇——原以为只有专业演员才能出镜,没想到自己也能在虚拟世界里体验抽人巴掌、前呼后拥,或者当吃瓜群众。

这种"参演感"降低了内容消费的门槛。用户从被动观看转向被动参与(虽然并非主动表演),获得了娱乐价值的延伸。对于熟人之间的借脸,用途尚且可控,信任成本较低。

对制作方而言,素人授权解决了AI生成内容的合规风险。平台要求真人校验,本质是在规避深度伪造(Deepfake)的法律灰色地带。有明确授权的人脸,比无授权抓取更安全。

技术层面,个人特征锚点的建立让AI生成质量显著提升。数字人不再是一张模糊的"AI脸",而是具有可识别特征、能持续出镜的虚拟形象。这为AI短剧的工业化生产奠定了基础。

反方:授权即失控,维权成本极高

但"可控"只是借脸瞬间的幻觉。一旦数据进入系统,脸就开始了不受控的漂流。

发现其他剧偷偷用自己的脸,直接维权不就行了?实际操作远比想象艰难。

第一步是打开协议黑箱,明确具体授权给了哪部作品、哪些权利。但平台与制作方的著作权约定一般不公开,链路复杂:委托创作(平台出钱,著作权归平台)、销售转让(制作方卖剧给平台,权利转移)、分成模式(按播放量或充值收入分成,权利归属看协议)。上述协议均不公开,普通人查清授权链条,难如登天。

即便找到侵权线索,还需固定证据。不是"觉得像"就行,要提供大量照片与短剧截图比对,找证人证明"这个角色一看就是你",必要时还得找专业机构做相似度鉴定。

走完这套流程,终于证明那就是你的脸,接下来主张权利。但由于脸只在剧集里出现几分钟甚至十几秒,侵权情节轻微,对方只需赔礼道歉。剧不用下架,删掉镜头或换脸,重新上线即可。

耗时数月,换来无关痛痒的致歉声明。大多数人权衡之后,即使真被偷了脸,大概也只好算了。

更深层的困境:拒绝授权,也挡不住特征被"炼化"

更让人无力的是,即便明确拒绝,即便授权链路全部合规,人脸特征仍可能被悄悄利用。

当前主流人脸生成模型多基于扩散模型架构,核心是对海量人脸数据进行统计学习、提炼规律。用户无意中发布在公开平台的照片、视频,其脸部特征随时可能被模型从互联网素材中提取,融入规律库中被"炼化"。

这种情况下,甚至不会发现自己的特征被使用。顶多在某部短剧中看到一个角色跟自己"撞脸",只能用"长了一张大众脸"自我安慰。

某AIGC产品的用户协议中,授权模型学习用户数据的条款普遍存在。这意味着,拒绝一次借脸请求,不等于拒绝被AI学习;撤回一份授权协议,不等于撤回已被提取的特征模式。

我的判断:这不是"借",是单向度的生物特征出让

把脸借给AI短剧,本质是一场权利严重不对等的交易。

用户出让的是不可复制的生物特征,获得的只是短暂的娱乐体验或微薄的熟人人情。平台获得的却是可无限复用、可转授权、可融入模型底层的数字资产。协议中的"全球范围内、免费、非独家、可多层次再许可",几乎剥夺了用户对未来使用场景的一切话语权。

更关键的是,这种出让具有不可逆性。脸进入模型后,即便删除原始数据,已被提取的特征模式、已被训练的生成参数,无法通过简单的"撤回"操作清除。这与借用实物完全不同——借出去一本书,还回来还是那本书;借出去一张脸,还回来的可能是无数个变异版本,或者根本还不回来。

短剧行业的补贴收缩是结构性变化,AI降本将是长期趋势。这意味着"借脸"需求不会消失,反而可能扩大。当更多普通人的脸被纳入AI短剧的素材库,个体与平台之间的权力失衡将更加凸显。

目前的维权路径——查清授权链条、固定证据、主张权利——设计成本极高,且赔偿与付出严重不匹配。这种制度安排实际上默许了大规模、低成本的生物特征采集,将风险转嫁给个体承担。

熊猫的脸现在还在朋友的短剧里"漂流"。他偶尔会收到消息:"你的脸又出镜了,这次演的是个反派。"他笑笑,说反正也拿不回来,就当多了个平行世界的分身。

但这种自我安慰,恰恰揭示了问题的核心:当生物特征成为可随意调用的数字资源,"同意"和"拒绝"的边界已经模糊。借脸或者不借,或许不再是一个让人纠结的问题——因为你的一部分特征,可能早就融入了AI。