文/陈天昊 清华大学公共管理学院长聘副教授 清华大学科技发展与治理研究中心主任助理

伴随着端侧智能体、“龙虾”等的火热,智能体已经从实验室概念逐渐嵌入社会经济生活与公众日常,与之对应的规范体系也在逐渐搭建。2026年5月8日,国家网信办会同国家发展改革委、工业和信息化部发布《智能体规范应用与创新发展实施意见》。这也是监管对智能体的首次系统性政策回应。

通过这份规范文本,可以看到中国人工智能监管正在从管模型走向管行动。相比于大语言模型,智能体具有更为复杂的技术-产业链条、更加分布式的创新生态且更为深入地嵌入具体场景,这都意味着它需要被专门规范。而要构建适应上述特征的专门制度规范,尤其需要注重三方面的问题:智能体的法律身份如何认定?智能体的使用者应当承担何种义务及责任?既有生态如何与智能体进行开放协作?本《意见》为回答上述三方面问题打下了良好的基础。

从整体上看,人工智能进入监管视野,大体经历了三类对象的演进。

第一类是特定功能的人工智能技术。在LLM获得快速发展之前,主要的人工智能技术皆针对特定任务进行设计、训练,我国监管部门发布的《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《人脸识别技术应用安全管理办法》便分别针对推荐算法、深度合成及人脸识别的专门人工智能技术

第二类是以LLM为代表的通用能力模型。它们通过大规模预训练获得了较强的跨任务理解及生成能力,逐渐成为支撑通用任务处理的基础平台。欧盟《人工智能法案》专门设置“通用目的AI模型”规则,我国也在ChatGPT发布后较快出台《生成式人工智能服务管理暂行办法》,近期又针对人工智能拟人化互动服务中的沉迷成瘾、情感依赖等风险发布专门办法。

第三类则是智能体系统。它以LLM为能力底座,通过记忆模块、任务规划、工具调用、接口协议和执行机制,把人工智能从内容生成进一步推向行动执行。它能够在数字环境乃至物理环境中进行感知、决策、交互和执行,本质上成为了数字世界、物理世界中的通用行动者。而《智能体规范应用与创新发展实施意见》的出台,可以被视为我国监管体系对智能体作为独立治理对象所作出的首次系统性政策回应

智能体系统的哪些特征具有监管意义,值得特别关注?大概梳理,可以归纳为下面三点,《意见》皆有所回应:

第一,更加复杂的技术—产业链条。智能体并不是单一的大模型产品。大模型主要提供理解、生成和推理等基础能力,而能行动的智能体,还需要记忆模块、任务规划机制、工具调用能力、接口协议、权限配置、终端适配和持续运维等环节共同支撑——它是模型、数据、记忆、工具、接口、终端和运维共同构成的复合系统。

《意见》对此已有明确认识,既提出要“加强智能体任务理解、任务规划、工具使用、长期记忆、互认互通、群体协同等技术攻关”,也要“加快研发感知、记忆、决策、交互、执行等关键组件”,并完善智能体“研发、测试、部署、运维等工具链”。这表明对智能体的治理必须从单一模型扩展到整个产业网络,因为智能体行为并非由模型提供者单独决定,而是由基础模型、智能体开发者、工具提供者、接口提供者、终端厂商、部署平台和运维主体共同塑造。

第二,更为分布式的创新生态。智能体能力的提升,不只取决于基础模型规模,也取决于模型适配、场景数据、记忆管理、工具生态、连接协议、终端入口和行业工作流的共同演进。

《意见》要求加快制定智能体与软件工具、硬件外设接口的基本标准,推广"智能体互联协议(AIP)"等国家标准,并推动与开源芯片、开源操作系统、开源大模型的兼容适配。这说明,智能体创新不会只集中在模型企业内部,而会分布在基础模型、开源框架、工具接口、硬件终端、行业应用和服务平台等多个环节。如此的好处,是能够释放产业活力,而其挑战是带来分布式风险:任何一个工具、接口、插件、记忆模块或权限配置出现问题,都可能改变智能体的行为边界,导致意料之外的后果。因此,智能体治理不能只依赖单点监管,而需要围绕标准协议、供应链安全、分发平台责任、检测认证和行业自律形成合力。

第三,更深入的场景嵌入。智能体的能力最终要在具体场景中实现。它需要理解场景中的任务目标、规则约束、用户意图、数据环境和风险边界,并根据行动反馈持续优化记忆、工具调用和工作流配置。《意见》也明确采取了场景牵引的思路,重点布局科研、制造、金融、医疗、政务、城市治理等十余个领域,并推动智能体与手机、汽车、家居、可穿戴设备、机器人等终端协同发展。不同场景中,智能体接入的数据、调用的工具、影响的对象差异巨大,这意味着监管必须转向场景化、分级化和权限化治理:不同场景中的智能体,因其接入的数据、调用的工具、影响的对象和可能造成的后果不同,应当适用不同强度的准入、测试、备案、审计、召回和责任追溯规则。《意见》提出“根据应用场景和潜在影响,审慎稳妥开展智能体分级治理”,正是对这一问题的回应。

在肯定上述回应的同时,也要意识到,该《意见》仅为宏观的政策指引,其具体落地还需要更为系统且深入的制度构建。智能体系统的底层逻辑,是人工拟制的通用行动者在不同环境中自主行动,由此,需要处理好下述三对核心关系,并解决其引发的三方面问题:

第一,智能体系统与其提供者之间的关系:智能体是否应当被视为独立法律主体,还是应当被视为由提供者控制和维护的技术性行动系统?这直接关系到核心法律主体如何确定的问题。一方面,智能体为了保持稳定、获得信任,往往需要具有明确的行为风格、可预期的行为边界和相对稳定的身份标识等类人格化特质。正因如此,学界也曾围绕是否赋予智能系统特定财产权利或有限法律人格展开讨论。若循此路径,智能体与其提供者之间就可能被理解为主体间关系,法律也需要分别配置其权利、义务与责任。然而,另一方面,智能体毕竟是在数字系统中被开发、配置、部署和维护的技术系统,可以被创建、定义、复制、修改、合并、分割和终止。其身份边界和持续性高度依赖提供者的技术安排。若在现阶段直接赋予其独立法律人格,就可能造成权利、义务和责任归属的不稳定,反而削弱法律关系的清晰性。

《意见》并未正面回应智能体是否具有法律人格,但其制度安排透露了两种倾向。第一,探索建立智能体注册平台,提供智能体数字身份管理、检索发现、能力声明等服务。这一安排容易令人联想到法人登记中的身份确认功能。第二,合规要求以及信用评价体系的对象是“智能体开发平台、分发平台、服务提供者”。这些安排都穿透了智能体的技术架构,将自然人、法人或非法人组织等传统法律主体作为规范对象。

基于当前技术状态,本人也倾向于认为,更为稳妥的制度路径应是将智能体系统视为由传统法律主体开发、部署、控制和维护的技术性行动系统,而不宜赋予其独立法律人格。这也意味着,相关制度构建应当穿透技术外壳,围绕以智能体服务提供者为中心节点的产业网络配置权利、义务和责任。该网络中的主体至少包括基础模型提供者、智能体开发者、部署者、运维者、工具/API提供者、终端厂商、分发平台等。

第二,智能体系统与其使用者之间的关系:在使用者与智能体的交互中,哪些行为后果应当由智能体及其背后的服务提供者负责,而哪些行为后果应当由使用者自己承担?使用者自身也是其所处环境的行动者,当两个行动者交互做出决策并采取行动时,法律责任的归属就是一个经典难题。过往的人工智能规范,会更多强调服务提供者的义务与责任,而对于使用者的义务及责任往往仅做宣誓性规范,监管也更多倾向于以强化服务提供者的合规建设作为监管抓手。然而,需要注意的是,一方面,智能体相比于大模型具有了对现实世界的直接改造能力,使用者滥用智能体所带来的危害显然更大;另一方面,智能体具备自主性,其在当下场景中的很多决策会超越服务提供者的即时控制,而更多服务于其使用者的直接命令,若使用者故意发出违法指令、规避安全机制,仅追究服务提供者责任而淡化使用者义务,就难以符合权责匹配的基本要求。

《意见》已经触及这一问题,但总体仍较为原则。一方面,其提出要“厘清仅限用户本人决策、需由用户授权决策和智能体自主决策等各种决策方式的合理边界及所需权限”,并要求“确保用户对智能体自主决策享有知情权和最终决策权,智能体执行操作不得超出用户授权范围”。这说明,智能体不能绕开用户控制,而必须在用户知情、授权和最终决策的框架内运行。另一方面,《意见》又提出通过平台规则、用户服务协议及隐私政策“明确供需双方权责”,并要求“加强智能体应用风险宣传教育,提升用户安全意识”。这表明,使用者并非完全被动的保护对象,也应在合理范围内承担安全使用、合法使用和审慎授权的责任。

随着智能体更广泛地进入用户日常生活和专业活动,其自主行动能力也会持续提升。如何系统规范使用者在运用智能体时的义务和责任,将成为难以回避的问题。尤其是当智能体显著放大使用者的行动能力时,使用者就不能只是被保护对象,也应成为责任体系中的一环。

第三,智能体系统与其所处环境中其他行动者的关系:智能体会改变既有环境的生态结构,谁应当在环境中获得更多的激励?哪些行动者又需要为智能体让出生态位?要知道,多数成熟场景中的需求,已经由既有机构、平台、软件系统或服务提供者承担。智能体作为新的行动者嵌入场景,本质上是在进入既有的“功能—需求”链条:它需要获得场景上下文,接入数据和接口,调用工具能力,理解业务规则,并与原有系统和人员协同,这往往意味着承担适配成本、安全风险和责任压力,再考虑到智能体一旦运行成熟,又可能替代其原有功能,削弱其在场景中的地位和收益。

由此,智能体落地很可能会遭遇现实的激励不相容:智能体需要场景开放才能形成能力,但既有场景主体未必愿意为潜在的替代者提供接口。2025年12月以技术预览版上线的豆包手机,就引发了移动互联网各方围绕终端入口、跨应用操作和超级App适配的生态之争;亚马逊与Perplexity围绕Comet浏览器智能体的纠纷,也反映出平台、智能体和用户之间围绕账户访问、自动化操作、流量入口和交易控制权的冲突。此类争议均折射出同一问题:智能体进入环境后,真正困难的不只是技术能力,而是既有生态是否愿意开放,以及开放后的利益和责任如何重新分配。

《意见》已经注意到这一矛盾。其提出“畅通供需渠道,促进研发侧、需求侧高水平互动”,并要求“引导互联网应用、智能终端等领域企业共建生态,探索建立互利共赢的合作模式”;同时又提出“推动重点领域开放智能体应用场景”,并“促进行业数据共享开放,支撑重点场景智能体训练部署”。这些安排说明,智能体治理不仅要解决安全问题,更要解决场景开放、生态协作和利益协调问题

后续制度构建的重点,应是构建有利于形成开放包容之智能体生态的制度环境。一方面,应当用好分类分级治理框架,根据场景风险、数据敏感程度、工具权限、影响范围和可恢复性,细化智能体进入不同场景的开放边界,为智能体深度嵌入具体场景尽可能扩展空间。另一方面,也要明确智能体进入场景后的权责配置,规范数据、接口、工具、终端和分发入口的开放条件,防止不合理拒绝接入、恶意不兼容、歧视性接口和自我优待等行为。只有同时处理好开放、安全、竞争及责任这几个方面,才能避免智能体创新被既有生态结构锁住,更好地释放创新活力。