在促进人工智能创新与安全发展,捍卫中国在全球人工智能治理新秩序话语权的时代关口,我国人工智能立法者肩负现实而紧迫的责任。2026年5月9日,由浙江大学数字法治研究院、浙江立法研究院、浙江大学立法研究院联合主办的“《人工智能法》浙大版学者建议稿圆桌论坛”在浙江省杭州市浙江宾馆花港厅召开,邀请全国专家学者共商立法大计。
与会学者合影
孙军工
开幕式由浙江大学智库高端人才、光华法学院研究员孙军工主持。浙江大学光华法学院党委书记、浙江立法研究院、浙江大学立法研究院院长郑春燕代表主办方致欢迎辞,浙江大学数字法治研究院院长孙笑侠阐述了建议稿草案的基本原则。
郑春燕
郑春燕指出,浙大推出《人工智能法》学者建议稿具有显著优势:浙江大学是我国学科门类最齐全的高校之一,具有法学与计算机等学科交叉研究的深厚传统。自2015年起,浙江大学光华法学院就成立互联网法治研究中心,长期深耕数字法治领域,具有现行优势和深厚积淀;地处数字经济蓬勃发展、正成为世界级人工智能产业集聚中心的杭州,浙大团队深度参与《杭州市创新活力之城条例》《人工智能产业促进条例》等地方立法起草,直面人工智能产业发展的实践需求。她表示期待听取各方宝贵意见,进一步完善建议稿。
孙笑侠
孙笑侠就《人工智能法》浙大学者建议稿的“立法导向”阐述了“能—智—事适配”原则。他表示,人工智能立法首先要解决的根本矛盾是发展与安全的平衡问题,需对人工智能的全生命周期进行风险拆解。针对当前风险评估中的过度归因以及国际上某些地区的“扼杀式监管”,他提出人工智能的风险根源在于“能、智、事”三者错配。该原则包括场景特异性、安全与发展平衡、责任网络适配三个维度,可细化为六项制度体现:阶段化准入与分级监管;按AI能力、认知水平、场景复杂度分级准入;场景特异性使用条款;采用“以能测智、以能代智”的评估方法;动态责任分配与链条化治理;技术标准嵌入法律规范。
陆家豪
浙江大学光华法学院特聘副研究员陆家豪主持并发布《人工智能法》浙大版学者建议稿,浙江大学光华法学院“百人计划”研究员李汶龙介绍了建议稿的研究背景、方法与整体框架。
李汶龙
据李汶龙介绍,《人工智能法》浙大版学者建议稿广泛吸收近年人工智能立法成果,变革了传统的全维度风险或全产业促进的立法思路,以“能—智—事适配”为基础,统筹发展与安全,坚持全生命周期管理与风险适配的敏捷治理,贯穿“以人为本、智能向善、公开透明、责任追溯、公平公正与多元共治”的价值导向。建议稿构建了总则、原则层与执行层三大结构,涵盖了基础奠定、监管体制、执行机制与风险救济等规则设计。
魏斌
本次圆桌论坛分为两个专题,专题一为人工智能立法的结构和基本范式研讨,由浙江大学光华法学院研究员魏斌主持。
蔡翠红
复旦大学国际问题研究院教授、全球人工智能创新治理中心副主任蔡翠红指出,人工智能立法应更加注重治理链条的完整性和运行通畅性,在制度设计中明确分类分级规则、责任主体划分、风险评估程序、监管工具配置、申诉救济渠道和法律责任机制,以提升法律的可操作性和执行力。同时,面对人工智能技术的快速迭代,立法应通过监管沙盒、试点示范和动态调整机制保持必要的开放性与适应性。她还强调,中国人工智能法应具有更强的国际视野,不仅服务于国内治理,也应成为中国参与全球人工智能治理的重要制度接口,增强中国规则的国际可解释性、可对话性和可合作性。
刘云
清华大学智库中心助理研究员刘云认为,人工智能治理目前有五种可能的立法定位,欧盟的风险法,美国的权利法,职权法,日韩的产业促进法,关注“智能经济新业态”的商业法。他提出应进一步明确《人工智能法》浙大版学者建议稿的基本定位,并思考如何落实国家“十五五规划纲要”对人工智能相关问题的设想。
郭兵
浙江理工大学数据法治研究院执行院长郭兵建议,从关键技术、典型应用等多重维度确定立法的调整对象,避免将调整对象限定为大模型或者生成式人工智能等有限的范围;立法框架应体现出发展与安全并重的原则理念,合理分配发展导向和安全导向的规则比重;条文设计应体现出提取公因式的特点,协调衔接好相关条文与现有的部门规章、国家标准以及伦理规范等制度规范的关系。
孙皓琛
香港大学法律学院教授孙皓琛认为,条文设定应考虑监管成本,并注重与《民法典》、《个人信息保护法》等现有法律相关法条的衔接,明确现有法律的调整范围,避免重复立法。
吴亦全
专题二为关键制度设计与治理工具的落地研讨。本环节由浙江大学光华法学院“百人计划”研究员吴亦全主持,他指出,本专题围绕专家建议稿具体制度落地的四个细分问题进行讨论:一是治理对象与监管主体的区分,二是治理思路的变化,三是治理工具的选择,四是治理尺度的把控。
郑志峰
西南政法大学高等研究院院长郑志峰指出,需厘清全文研发、提供、部署、使用等阶段的主体统一性,人工智能分级分类管理中风险定义和人工智能应用场景的关系等问题。
姚志伟
广东财经大学法学院教授、人工智能法研究中心主任姚志伟认为,在涉及责任设定的条款上,归责原则与人工智能的分级分类需要进一步讨论,法定连带责任的设定应考察是否存在共同故意的基础。
洪延青
北京理工大学网络空间国际治理研究基地主任、法学院教授洪延青提出,数据质量直接决定人工智能模型的能力边界。因此,在人工智能立法中,数据治理早已超越企业内部合规与技术性安全的狭隘范畴,它同时深刻影响着产业创新活力、国家数据主权以及全球数字治理格局。这意味着,人工智能立法不能停留在简单的安全底线思维上,而需要对数据治理更加丰富的设计:既要规范数据采集与使用的边界,也要构建激励高质量数据供给的机制;既要保障数据安全与个人权益,也要为产业创新和国际协作留出空间。这是一场从“管住”到“管好”的立法理念跃升。
程莹
中国信通院政策与经济研究所主任工程师程莹提出,新形势下人工智能治理存在三个维度的重要转向,一是智能体发展背景下从“注意力经济”向“执行力经济”的治理转向;二是AI情感能力提升背景下从安全治理向人机伦理治理的深化;三是AI感知能力提升下从虚拟空间到现实物理空间的治理转向。本次专家建议稿有效平衡了发展和安全,积极回应了技术跃迁带来的制度诉求。
高艳东
在专题讨论后,浙江大学数字法治研究院副院长高艳东主持自由讨论环节。广东省人大法制委原主任委员王波、安徽省人大法制委员会主任委员吴斌、湖北省人大常委会法工委副主任郑文金、浙江省人大常委会法工委副主任吴恩玉对活力和秩序的平衡、全生命周期管理、人工智能产业发展保障、立法定位、立法权限等问题提出了宝贵建议。
王波
吴斌
郑文金
吴恩玉
浙江大学光华法学院副院长、教授陆青对本次圆桌论坛作总结致谢,并表示,人工智能治理是浙江大学法学院的重要研究领域,本次圆桌论坛对《人工智能法》浙大版学者建议稿的进一步完善指明了方向,为后续完善提供了宝贵经验。浙大法律人将精益求精,推动《人工智能法》浙大版学者建议稿的公开发表,为我国人工智能立法贡献智慧。
陆青
来源:浙江大学光华法学院 李汶龙
热门跟贴