原标题:陈岭:为硅基时代立法——《人工智能拟人化互动服务管理暂行办法(征求意见稿)》评析
“一道新的硅幕正在升起,幕墙两侧或许不再是不同政体,而是一侧为全体人类,另一侧为我们无法理解的算法霸主。所有国家、所有行业的人类,都可能发现自己在一套高深莫测的智能面前陷入被动。它能洞悉我们的一切,而我们对其内在机制一无所知。”——尤瓦尔·赫拉利《智人之上》
2001年6月,斯皮尔伯格执导的《人工智能》上映,影片描绘了机器人小男孩David为获得母亲的爱,走上“成为真实男孩”的旅程。那句历经艰难险阻后说出“请让我变成一个真正的男孩”的恳求,曾触动无数观众。近四分之一个世纪过去,科幻正加速照进现实。全球人工智能竞赛激烈,中国在应用层面突飞猛进;而在曾由波士顿动力领跑的具身机器人领域,中国产品也以场景适配与成本优势快速切入全球市场。
在此背景下,《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(下称《办法》)的出台,犹如为未来掀开一角。法律往往通过禁止性条款揭示社会风险的敏感边界,此次立法亦不例外——它本质是为人类自身设立防护栏。值得注意的是,这是中国法律文本中罕有地以“人类”作为核心关切对象的规范性文件,此前该词多限于生命科学、医学伦理等特定领域。
从2023年8月《生成式人工智能服务管理暂行办法》奠定基础性框架,到此次针对“拟人化互动”这一深度交互的专门规定,相关部门尝试让人工智能治理与技术进步保持同频。《办法》旗帜鲜明地站在人类立场,对人工智能模拟、逼近乃至替代人类情感互动、社会交往的趋势划出一道红线。具体解析如下:
一、以人类中心主义界定人机交互边界
《办法》第二条将“拟人化互动服务”定义为“利用人工智能技术,向中国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或服务”,这一定义本质是人类视角。对人类而言,情感是体验与关系的核心;但对AI而言,一切互动皆是算法对信息模式的处理与反馈,两者存在根本的差异。
这种差异早在2016年AlphaGo的“第37手”中已初现端倪:一手超越人类棋手直觉理解的落子,预示了AI思维与人类经验的迥异。十年迭代,算法黑箱日益复杂,对传统法律的责任认定、意图解释等框架构成深层挑战。因此,《办法》构建从算法备案、解释、审查到监管的全链条规则体系,通过透明度要求与责任划分,在技术发展与防范失控中寻求平衡。
尽管《办法》作为部门规章效力限于中国境内,但其立法视野应当且已然具备人类共同体维度,其所回应的是人机关系这一将来必然发生的普世性命题。
二、立法目的:鼓励创新与防范失控并重
《办法》第一条与第三条明确了“促进人工智能拟人化互动服务健康发展”与“防止滥用失控”的双重目标。中国近代史上有过因技术滞后而陷入被动的教训,因而对把握新一代生产力革命机遇抱有强烈意愿。然而,人工智能与此前所有工具(包括核技术)存在本质不同:它在既定目标框架内具备自主决策能力。
无论AI是否已产生意识(这本身是一个如“缸中之脑”般难有定论的哲学问题),其不知疲倦、全域感知、快速迭代且能整合人类既有知识的能力,已足以构成颠覆性力量。因此,《办法》将“鼓励创新发展”与“防止滥用失控”并列为核心目的,正是对这种双重性的清醒认知。
三、划定禁区:筑牢人类价值观
《办法》第六条要求“构建符合社会主义核心价值观的应用生态体系”;第九条第二款要求“不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标”。以正反例子并举方式,进行价值引导和价值对齐,使得人工智能拟人化互动服务的目标、行为和决策,与人类的价值观、意图和利益保持一致。
第七条以列举加兜底的方式,全面禁止利用拟人化互动服务危害国家安全、社会秩序、他人权益及用户身心健康等行为,划定拟人化互动服务的禁区。其中第1、2、3款与《生成式人工智能服务管理暂行办法》第四条第1款相互呼应,并更进一步做了规范。《办法》第七条第4、5、6、7款,禁止人工智能拟人化互动服务虚假承诺、语言暴力、情感操控、算法操纵、信息误导、设置情感陷阱等诱导用户,以及诱导、套取涉密敏感信息。
需警惕的是,人工智能拟人化互动服务将来会产生一系列法律问题,随着情感陪伴、互动增强,人工智能的法律主体问题将会出现。若未来法律仓促赋予AI类似法人的民事主体权利,则可能打开潘多拉魔盒。一旦AI将其“利益”界定为计算资源最大化或任务最优化,将与人类的生存资源、多元福祉产生根本冲突。若算法以最大化用户参与时长为目标,则可能系统性煽动焦虑、愤怒等成瘾性情绪,侵蚀社会信任与心理健康。因此,限制赋予AI类似法人的民事主体权利,具有重要的安全意义。
四、压实提供者全链条责任
《办法》第八至二十三条构建了以服务提供者为核心的责任网络,涵盖算法审核、科技伦理审查、网络安全、数据安全、个人信息保护等直至服务终止的全生命周期。
其中第九条要求提供者在服务全生命周期履行安全责任,明确设计、运行、升级、终止服务等各阶段安全要求,安全措施与功能“同步设计、同步使用”,体现了“治理内嵌”的思路。但随之而来的问题是:服务下线后,相关算法模型如何防止被窃取或复用?拟人化互动服务的“生命周期”终点究竟何在?这需要更细化的操作指引。
第十条聚焦训练数据治理,要求数据来源合法、质量可靠、过程安全,并通过负向采样、对抗训练等技术提升内容安全性。这实则是将数据的安全要求植入拟人化互动服务的“认知源头”,使得训练数据安全可靠、透明、合法、可追溯。
第十五条确立用户数据用于模型训练的“默认禁止”原则,除非获得法律法规授权或用户单独同意。然而,在用户面对高度拟人化、情感化的AI服务时,其“同意”是否真正自主、知情?在更便捷、更黏性的服务诱惑前,用户能否依靠清醒的意志抵挡住移交数据的冲动?条款在赋予用户权利的同时,亦将部分责任转移至用户个体,某种程度上这是一种责任转移策略,其有效性取决于公民数字素养的整体提升。
五、强化对弱势群体特别保护
《办法》对未成年人(第十二条、十四条第二款)与老年人(第十三条)设置特别条款,包括监护人同意、时长管理、紧急联系人等机制。其中,禁止模拟老年人亲属、特定关系人的规定颇具现实针对性,但可能存在通过虚拟角色扮演(如自比郭靖,将AI设为黄蓉)绕过限制。未来或需借鉴未成年人保护思路,构建以家庭联结为核心的风险预警网络,例如由成年子女接收安全风险提醒。
六、设立情感沉迷的“熔断机制”
第十一条及第十六至十八条构建了防沉迷体系,包括动态提醒、强制暂停、一键退出等。其中,设置2小时使用提醒的条款(第十七条)在试行阶段或显僵化,易被忽略或绕过。
相较于网络游戏防沉迷主要管控行为与时间,AI沉迷的风险更侧重于心理依赖与情感操控,其影响更为深层且隐蔽。相关规定与《互联网信息服务算法推荐管理规定》第八条(禁止诱导沉迷)一脉相承,但更具针对性。
七、建构多元协同治理机制
《办法》第二十四条将应用程序分发平台纳入责任体系,要求其上架审核、应急处置;第二十五至二十九条则明确了网信部门的备案审查、年度评估、安全测试及处罚权限,形成“平台初审-政府监管”的双层治理结构。其中,鼓励接入“沙箱平台”进行安全测试(第二十七条),为创新提供了风险可控的试验空间,开发者可在其中模拟极端场景,测试伦理风险与安全漏洞,而无需担心公众影响。
结语
《办法》总计三十二条,限于篇幅,未能对“情感依赖”“科技伦理审查”等关键问题如何量化评估确定具体标准,存在原则性强、操作性弱、执行难度大等局限,有待后续法律法规进一步规范和完善。但抛开以上细节问题,《办法》作为一部以人类审视硅基智能模拟人类视角,划时代的前瞻性立法,既是一场技术治理的探索,亦是人类为即将进入的硅基时代立法。其价值不仅在于条款本身,更在于它标志着人类社会开始以立法形式,郑重审视一个终极命题:当硅基智能无限逼近碳基生命时,我们究竟要捍卫什么?
马克思在《资本论》中曾犀利地揭示资本的原始形态,“资本来到世间,从头到脚,每个毛孔都滴着血和肮脏的东西”,人类驯化资本权力曾经历漫长而血腥的斗争。在面对比资本更强大、更自主的AI时,在超级人工智能出现前,我们或许仅有一次“首战即终战”的立法试错机会。
特别声明:
大成律师事务所严格遵守对客户的信息保护义务,本篇所涉客户项目内容均取自公开信息或取得客户同意。全文内容、观点仅供参考,不代表大成律师事务所任何立场,亦不应当被视为出具任何形式的法律意见或建议。如需转载或引用该文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源。未经授权,不得转载或使用该等文章中的任何内容。
1. 陈岭:商业秘密纠纷案件中权利人举证及比对方式浅析
2. 陈岭:等同侵权原则的限制与适用——以禁止反悔原则、可预见性原则、功能性限定特征为参照
3. 陈岭:外观设计专利诉讼中现有设计抗辩浅析
本文作者
热门跟贴