近日,某公司推出的“ai演员”因与当红艺人高度相似,引发粉丝强烈抵制。这看似又是一桩明星维权事件,但其背后隐忧远不止于此:技术能轻易“复刻”明星的脸牟利,同样也能复制任何一个人的脸。当每个人的面部特征都可能成为ai随意调用的数据,我们面临的已不仅是偶像被“盗版”的问题,而是个体尊严与真实信任的双重危机。
ai生成人脸早已不是新鲜事,但恰恰是这种“不新鲜”,让风险变得更为棘手。肖像权保护的是自然人的面部特征,而ai生成的“近似脸”恰好游走在“像又不像”的模糊地带,让维权变得复杂而昂贵。问题的关键在于:规则没有做在事前,法律对“近似脸”的定性仍然“暧昧”。技术跑在了规则前面,这才是最大的隐患。
值得肯定的是,监管正在努力追赶。从生成工具端看,即梦ai、豆包、剪映等平台紧急限制了“真人素材参考”能力,要求用户通过本人形象与声音的真人校验。在内容发布环节,抖音、快手、小红书等平台也陆续推出了梯度处置措施:限制流量、暂停发布、永久封禁。这些行动释放了一个明确信号——技术不能成为侵权的“遮羞布”。但问题是,这些措施本质上仍是“被动防御”,是侵权发生后的修补,而非源头的阻断。
行业组织也亮明了态度。2026年4月2日,中国广播电视社会组织联合会演员委员会发布声明,明确任何未经授权的ai换脸、声纹克隆、虚拟人复刻等行为均属侵权,即便标注“非商用”也不能免责。这份声明值得肯定,它为平台监管提供了更清晰的行业依据。然而,行业自律有其边界,当“擦边球”仍有灰色空间可钻时,仅靠声明和呼吁远远不够。
说到底,ai侵权的症结不在技术本身,而在技术的使用边界被有意无意地模糊了。一张脸可以被无限复制、任意嫁接,那么每一个普通人的声音、表情、姿态,都可能成为数据黑市中的待价而沽。它消解的不只是明星的商业价值,更是整个社会对“真实”的信任根基。
因此,守住“脸”的关口,不能止于平台严管与行业自律。立法层面亟待明确“ai生成物与原始肖像权的实质性相似认定标准”,让法律从“事后追责”走向“事前划界”。同时,技术伦理必须嵌入算法设计的初始阶段,而不是在侵权已成事实后再“亡羊补牢”。
技术可以创新,但不能越界。唯有法律亮明底线、平台扛起责任、技术守住伦理、公众保持警惕,才能真正终结这场“脸”的乱局——让技术的每一次落笔,都不以牺牲个体的尊严与权利为代价。真正的“为人服务”,首先要以“不伤害人”为前提。
送你一个新闻盲盒
快来打开看看吧
策划:王瑾、曾曙红、黄珈玥、赵玥
文稿:吴佳宁、王瑾
漫画:黄珈玥
编辑:邱彩红
转载请注明来自上海徐汇官方账号
上观号作者:徐汇通
热门跟贴