(来源:法制日报)

转自:法制日报

利用“AI换脸”技术,通过互联网平台验证系统,神不知鬼不觉篡改企业法定代表人信息。

日前,公安部网安局对外发布这起湖北武汉网警破获的通过“AI换脸”技术非法侵入计算机信息系统案。

今年6月,武汉警方接到一公司报警称,自家精心运维的社交媒体账号密码被更换,甚至连公司法定代表人信息都被篡改。

接警后,武汉网警迅速成立专案组,通过技术人员分析研判发现,相关操作均指向一套成熟的“AI换脸”技术。

经查,该团伙利用“AI换脸”技术非法侵入系统、篡改法定代表人身份牟利。目前4名嫌疑人已被刑拘。

图为武汉警方抓获相关嫌疑人(中)。
打开网易新闻 查看精彩图片
图为武汉警方抓获相关嫌疑人(中)。

“AI换脸”技术的受害者,还有演员温峥嵘。近期,网络上频繁出现以盗播、“AI换脸”等方式,非法使用温峥嵘形象售卖假冒伪劣产品的行为。

12月1日,温峥嵘在个人社交媒体平台发出严正声明,并晒出警方受案回执。

图为温峥嵘在个人社交平台发布严正声明和警方受案回执。
打开网易新闻 查看精彩图片
图为温峥嵘在个人社交平台发布严正声明和警方受案回执。

近年来

以“AI换脸”技术为代表的

人工智能技术

被负面利用的案例屡有发生

使用“AI换脸”技术的

法律边界在哪里?

我们该如何确保人工智能技术

有益、安全、公平?

《法治日报》记者

就相关问题采访了

北京天达共和(武汉)律师事务所

管理合伙人

武汉市律师行业团委副书记

彭夫

问题一:

“AI换脸”技术为何会被滥用?“AI换脸”技术使用的法律边界在哪里?

彭夫:“AI换脸”技术被滥用的原因是多层次的。首先,开源工具与商业化应用的普及降低了技术使用门槛,使非专业人员可轻易获取并使用相关技术。其次,巨大的利益驱动催生了网络黑灰产链条,从非法获取人脸数据到制作、传播侵权内容,形成了牟利的闭环。再次,网络空间的匿名性和跨区域特性使得违法者身份隐蔽,追踪溯源和取证存在现实困难,导致违法成本相对较低。更深层的原因在于,法律和监管体系面对技术快速迭代时存在一定的滞后性,现行规范在精准识别和及时规制新型侵权行为方面仍需完善。

判断“AI换脸”技术使用是否逾越法律边界的核心标准有二:一是技术使用是否取得合法授权,二是使用目的是否正当。在民事领域,未经同意使用他人肖像用于“AI换脸”可能构成肖像权侵权;若因此导致社会评价降低,还可能构成名誉权侵权。在行政层面,未经授权采集、使用或者泄露他人人脸信息,制作、传播虚假信息,可能违反《中华人民共和国个人信息保护法》《中华人民共和国治安管理处罚法》《中华人民共和国网络安全法》等规定。在刑事层面,“AI换脸”技术滥用行为可能触犯多种罪名,例如使用“AI换脸”技术实施诈骗的可能构成诈骗罪,用于制作、传播含有淫秽内容的图片或者视频的可能构成制作、传播淫秽物品牟利罪或传播淫秽物品罪。

问题二:

“AI换脸”技术被滥用可能会引发哪些法律风险和治安问题?我们该如何治理由此形成的网络黑灰产?

彭夫:在个体层面,“AI换脸”技术被滥用可能侵害公民的人格权益和财产权益。例如,用于制作诽谤或不雅视频侵害肖像权、名誉权,以及冒充他人身份骗取财物。在社会层面,该技术可能被用于伪造公众人物言论、传播虚假舆情,扰乱社会秩序、干扰舆论甚至危害国家安全。

治理相关网络黑灰产需多措并举:一是健全规制体系,明确深度合成服务提供者、使用者与平台的责任,加大对违法行为的打击力度;二是强化平台治理,落实平台运营者的内容审核、标识和处置义务;三是发展技术对抗能力,推动深度伪造检测、溯源与取证工具研发;四是推动协同共治,通过行业自律、公众教育与跨部门协作,构建多方参与的综合治理体系。

问题三:

公民合法权益受到“AI换脸”技术侵害时,应当如何维权?

彭夫:当公民因“AI换脸”技术受到侵害时,可按以下步骤维权,过程中须注重及时行动并完整固定证据:

一、证据固定。应立即通过截图、录屏等方式对侵权内容的网页、链接、传播范围等保存,并建议采用可信时间戳、区块链存证或公证保全等方法,确保证据的法律效力。

二、平台投诉。向相关网络平台提交侵权通知,要求其依法采取删除、屏蔽、断开链接等措施。若平台未及时处理,可能需就损害扩大部分承担责任。

三、行政举报。根据行为性质,向网信部门或公安机关举报。如涉及诽谤、诈骗、传播淫秽物品等,公安机关可依法调查并作出行政处罚。

四、民事诉讼。可向侵权行为地或被告住所地法院起诉,要求侵权人承担停止侵害、赔礼道歉、赔偿损失等民事责任。必要时可申请行为禁令,要求立即停止传播。

五、刑事报案。如涉嫌构成侮辱、诽谤、诈骗等犯罪,可向公安机关报案或向法院提起刑事自诉。

问题四:

人工智能技术的蓬勃发展正深刻改变社会生产生活方式,也带来许多风险和挑战,我们如何确保人工智能技术有益、安全、公平?

彭夫:为引导人工智能技术向有益、安全、公平的方向发展,需构建融合立法、监管、伦理与技术的系统性治理框架。

第一,应完善法律法规体系,推动专门立法,明确各方权利义务,建立覆盖算法设计、数据训练、产品上市到应用部署的全生命周期监管机制。

第二,加强伦理治理与行业自律,将坚持以人为本、智能向善、公平普惠、协同共治等原则转化为可执行的技术标准与行业规范,建立人工智能安全标准、伦理准则和行业自律规范。

第三,坚持技术创新与治理协同,鼓励发展可解释AI、隐私计算、内容溯源等技术,对高风险AI系统实施安全评估与备案,逐步建立监测预警与应急响应体系。

第四,推动形成多元协同的治理生态,在国内促进政府、企业、学界与公众共同参与,在国际层面围绕数据跨境、算法伦理、安全标准等开展合作,凝聚共识,共同应对跨境治理挑战,最终实现人工智能技术服务于社会整体福祉。