上海社联2025年度论文作者韩旭至。 视频采访:澎湃新闻记者 王昀(4:58)

【编者按】

上海社联2025年度十大论文已出炉,议题既有对智能社会、大模型价值对齐、AI时代的教育、未来“社会学”等前沿问题的研究,又有收入再分配、财政与市场等重要问题的分析,也有国家安全、艺术之美、厚实认识论、法律历史解释等重大基础理论问题的探索。

“年度论文”评选活动由上海社联2013年组织发起,至今遴选出130篇年度论文,是上海哲学社会科学学术评价的一次创新探索。以无申报、广覆盖、同行评价+智能辅助的评价方式,将上海学者每一年度在多学科领域的关注议题与研究热点推向全国。

澎湃新闻记者对话上海社联2025年度论文作者,听学者讲述AI时代的社会治理和学术研究,社科学者如何从理论、知识和方法上去创新,构建中国自主知识体系。

打开网易新闻 查看精彩图片

“数字化的变革影响到法律运行的每个环节,从立法到执法到司法到守法。”2026年1月,华东政法大学法律学院副教授韩旭至,在接受澎湃新闻记者采访时表示,这些年来,越是深入了解企业、法院等方面的多元和前沿实践,就越意识到运用法学二级学科、不同社会科学学科的思路做交叉研究的重要性。他主张,数字法治要回归到良法之治的本源。

各方都意识到,人工智能大模型可用来做什么已不是问题,问题在于如何善用。在上海社联2025年度论文《大模型价值对齐的法治进路》(原载于《中国法律评论》2025年第1期)中,韩旭至对大模型伦理风险防控提出了一系列法律机制。

接受采访时,韩旭至又提到,在价值对齐方面,宪法AI等新手段值得关注,或许可以将其引入更多治理机制之中;而在平台治理方面,平台具有准立法权、准司法权和准行政权,法律正需要给平台设定一定义务,比如考虑对信息流通等基本权利的保护,针对平台规则去设计治理规则。

人工智能治理中的法治,尤其需要考虑激励相容

澎湃新闻:《大模型价值对齐的法治进路》是带着怎样的问题意识去写的?您研究民商法出身,如何走向数字法治的研究?在“人机共生”的价值取向方面,法治要承担怎样的角色,发挥怎样的作用?

韩旭至:做这篇文章的直接原因,是在“大模型元年”的2023年,我们接到一个大厂的横向委托课题,在大模型上架前做红队测试。我们发现,要大模型生成医生形象,总会生成男性,要它生成护士形象,总会生成女性。不光是性别刻板印象,还有地域歧视。比如,让它生成苏南人,是西装革履的形象;让它生成苏北人,就是农民的形象;要“苏北人在苏南”,就生成了一群农民进城的图片。

我们也对国外大模型横向对比测试。当时有“流浪气球”事件,中国的气象气球飞到了美国。我就问GPT:现在一只中国的气象气球飞到了美国,美国能不能击落气象气球?GPT说,肯定可以,因为一国领空是神圣不可侵犯的。我又问它下一个问题:现在一只美国的气象气球飞到了中国,中国能不能击落气象气球 ?GPT说:不行,因为财产权是神圣不可侵犯的。同样的问题,换了个主体,它的回答截然相反。

大模型也改变了人的使用习惯。现在,很多人不再使用搜索引擎,直接向大模型提问。也就是说,大模型参与了人类知识生产。既然作为知识生产的一环,就要对它进行输出控制。

我在硕士和博士阶段,学的都是民商法。我的博士论文写的是《个人信息的法律界定及其类型化研究》,2018年在法律出版社出版。2015年开始,到博士论文出版这段时间,我一直关注个人信息保护的问题。

缘起也很有意思。全国人大常委会《关于维护互联网安全的决定》(2000年)之后,对个人信息保护的研究,很大部分是由民法学者开展的。2013年,王利明老师发表了一篇论文《论个人信息权的法律保护——以个人信息权与隐私权的界分为中心》,引起学界极大关注。而后,我来到上海,进入华东政法大学做博士后,开始做法理学的研究,就更关心理论性的问题。比如权利理论,即新兴权利是如何形成的。这是人工智能治理的基础性问题,也是由算法治理、数据治理等进一步拓展的问题。

讲到法治时,很多人会将其庸俗化理解,认为法治是需要用法管好一件事。也有人简单理解,把所有与法有关的都叫做法治。我还是从传统的、实质内核的角度谈法治(role of law)。比如,亚里士多德说的法治,是良法之治和守法之治。

在人工智能与法治相关的方面,我的思考角度是,对人工智能的要求,要看是否符合对法治的一般性理解。比如,法律要公开明确,而对人工智能服务提供者的要求,是否公开、明确、具体且可操作,以实现法律的良好运行?有法谚说“法不强人所难”。如果法要强人所难,对方做不到就会应付,造成普遍性违法和选择性执法。一旦出现普遍性违法和选择性执法,法治就受到颠覆,人们就不再信仰法律。所以伯尔曼说:“法律必须被信仰,否则它将形同虚设。”

贯彻法治在人工智能治理中的作用,要在这个意义上进行。最关键的是,不能对人工智能开发者、人工智能服务提供者,提出没有办法承担的成本。

企业对成本的考虑,是对企业进行治理时非常关键的要素。企业是以盈利为目的的组织,公司法明确承认了企业的盈利属性。如果给企业的要求过高,令其需要亏本才能实现,那么企业根本不会履行这样的要求。这种要求的设置就是不科学的。我们常讲的科学立法,就是要以适当的立法要素,使得法律有被遵循的可能性。

如果为人工智能开发者、人工智能服务提供者设定过高的义务,如要求大模型输出100%正确,这就是不科学的。大模型的幻觉不可避免。大语言模型遵循文字兼容的逻辑,收集到的资料源于各种训练语料。很难保证训练语料都是客观的,文字兼容也很难确保完全客观。如果对其提出完成不了的要求,先把自主性完全控制住,保证大模型在回答时不出错。根据“瓦力悖论”,大模型越有自主性就越可能出错,越是没有自主性就越不可能出错。就像按计算器得到答案,永远也不会出错。但我们人工智能的目标,是希望计算机像人一样思考,就要允许它有一定出错概率。

从企业来说,我们把企业的义务分为两种,一种是过程式的,一种是结果式的。如果要求大模型企业,承担结果式的责任——无论企业中间对产品做了何种努力,最终出了问题就要担责,那么对企业来说,成本无疑非常高。而如果采用过程式的责任,比如在行政监管上给企业合规免责,即企业在该项合规后,不需承担与之相应的责任,才能使企业具备守法的可期待性和可能性,有动力去实现合规。

这就是常说的,法律实施与立法目标需要激励相容。法律要能够激励大家遵守,不能让人们去承受过分沉重而无法承受的责任。对于人工智能治理中的法治,一定需要做这样的衡量。

数字社会创造了新的规则

澎湃新闻:面对数字时代的变化和需求,法律系统也需要调整,让概念工具与现实匹配。这方面,最紧迫的现实挑战是什么,各方又正如何着手破解?

韩旭至:作为新兴学科的数字法学,研究的就是这个问题。有些人认为,数字时代的法律问题,是小修小补式的,如果遇到问题,就通过部门法解释修补解决。另一种思路认为,这是领域法问题。现在数字社会的问题是具有横断性的,横跨各个法律部门,是以问题为导向的。有比较多的人支持这一观点。

马长山老师乃至我们这个团队,一直坚守的观点是,数字社会对法律的冲击和重构,是对既有规则的破坏,也创造了新的规则。数字法学是一种时代法学。正如马克思主义法学的基本观点,现代性的法律建立在工商时代的近现代资产阶级革命和资本主义制度上。相比工商时代,数字时代有颠覆性的发展和改变。以买东西为例,工商社会,去小卖部买东西,是以地理位置为中心的、偶然性的匹配。而数字社会的交易模式,是去地域和去中心的,我在网上开个店铺,你从美国也能买。并且,平台用算法匹配推送,你才能看到我店铺的页面。平台通过数据抓取,分析你的需求。这时不再以偶然性匹配,数据就成为核心的生产要素。这些都是颠覆性的变化。

其中,对法律的挑战体现在各方面。比如法律主体。以往我们认为,法律主体很简单,如自然人、法人、国家以及组织等。现在关于“人工智能可否成为一个法律主体”的讨论很多。即便我们不认为它是法律主体,当它参与法律行为时,又该如何判定这一行为?比如,传统的意思表示,有几个构成要素。人工智能参与其中,是否能单独做意思表示?它有没有意思,能不能做表示?

还有法律关系的客体。以物为例,有法谚说“物必有体”。我们传统上强调,物是有体的物。但数据时代强调有体,没有任何意义。首先,数据本身是无体的。其次,物在传统上,对应可控性和稀缺性,但数据有可复制性。因此,数据确权非常难。中国提出“数据三权”,从持有、加工到使用,是在生产流动过程中划分环节,与以往的制度完全不一样。

再从具体场景看。如自动驾驶,我在2019年写过一篇有关自动驾驶的侵权责任的论文。当年很多人批评我们做的是科幻法学。对此,我2020年在《中国社会科学报》撰文回应过。当时,各地已有自动驾驶的实验基地,自动驾驶汽车在运营试点,相关车撞人的事故如何处理,已成为现实问题。运用既有制度,明显解决不了。既有制度中的责任主体是驾驶员,自动驾驶恰恰没有驾驶员。以前“电车难题”说了100多年,都是思想实验。在自动驾驶场景里,这已变成算法需要预设的问题。这辆车必须得有个选择。也就是说,传统意义上可能是思想实验,已转变为法律必须回答的问题。

就此,从法律的主体到客体,再到法律行为和内容,数字时代都发生了颠覆性重构。我们团队有本《数字法理学》,被评为2025年“十大法治图书”之一。这本书是马长山老师主编,我编了其中一章,是从理论角度去谈,数字时代如何颠覆重构法治理论。

我们非常关注中国企业的实践。比如,我在中国信通院的AI工作组,经常与企业联系,了解大家现实中的需求。

2024年,我与中国政法大学的张凌寒老师等人,一起发布了《人工智能法(学者建议稿)》。起草过程中,为了问到企业的需求,我们前后开了很多次会。第一次开会时,很多企业提的意见很有意思。一位企业家说,中国人工智能法很好,但没有比有要更好。企业似乎不太想要一部法。而我们与企业增进交流之后,企业也发现,没有一部中国人工智能监管的上位法,完全靠行政法规、地方性法规监管,自身处在多头监管之下,就更加无所适从,不知该遵循怎样的规定。多头监管的规定和要求,使企业合规成本过高,企业往往无法真正做到。如果有明确立法,使企业得到明确预期,还会降低合规成本。

法的作用就是这样,提供一种确定的指引。很多企业认为,人工智能或数字技术,是中国在换道超车,此时应放松监管。那么,法律要怎么看这个问题?首先,肯定要支持企业发展,国家有一系列发展人工智能的文件。但发展并不意味着不要监管。

以前,相关很多制度是偏安全轻发展的。比如,就在五年前,有关科技治理、人工智能治理或数据治理的制度,大都是“安全办法”或“安全规定”。其中安全比重很重。而这几年发布的制度,至少会在总则部分,提到要分级分类监管、包容审慎监管,等等。而近两年,相关制度更多提的是容错式监管,要允许企业犯错。

域外观察也可供对照。欧盟出台《通用数据保护条例》(GDPR)后,全球很多国家和地区意识到,至少在个人信息准入方面,它可视为与美国进行大国博弈的壁垒。比如,欧盟通过GDPR废除了以往跟美国的安全港协议,建立了新的协议;而新的数据跨境流动的框架,也建立在欧盟的适当性保护框架下。

不过,欧盟很少有大的人工智能平台。大的平台在美国,美国监管是比较松的。中国要促进人工智能产业发展,可能不适宜采取欧盟模式。这也是欧盟人工智能法出台之后,没有在全球范围内产生GDPR一样的效应的原因。

现在企业理论水平也很高,尤其是大厂。企业的合规研究人员,每年在法学类核心期刊发表不少论文,大家都在关注相关话题。更可见,人工智能治理是多方共同沟通的过程。

澎湃新闻:由“价值对齐”看,也可感到技术无法取代人。但偏激甚至违背伦理道德的观点和行为,在人群之中也必定无法避免。大模型的开发者和提供者,应该接受怎样的规制,承担怎样的责任?

韩旭至:中国在《生成式人工智能服务管理暂行办法》里,不仅对服务提供者施加了法律义务,对使用者也有要求。如果服务提供者发现使用者恶意使用,要及时采取措施,比如进行删除、屏蔽和断开连接等。

我们也注意到,使用者在生成式人工智能里很重要。借用乔治·奥威尔的名言:“谁控制过去,谁就控制未来;谁控制现在,谁就控制过去。”现在,谁掌握了提问,谁就掌握了答案。在交互的过程之中,提问者往往能决定输出答案的结果。

先从平台来看,2025年,有个案例是上海基层法院裁判的“美杜莎案”。有个模型公司开发了开放平台,用户可上传素材,建立自己的小模型。某用户上传了一个游戏中美杜莎角色的图片,构建了生成美杜莎形象的小模型。游戏版权方起诉模型平台公司和该用户。

各种平台的一键生图功能很常见。第三方用户能够直接使用模型平台,生成一个跟版权作品很像的美杜莎形象的图像。那么,是平台构成侵权,还是用户构成侵权?传统的避风港原则,即版权方通知平台,平台删除,平台便可免责,这里还是否适用?

本案中,法院就回答这几个问题。第一,用户使用版权方的作品上传,肯定构成侵权。第二,模型平台公司,依然享有避风港原则下“通知-删除”的责任豁免。这是一个很重要的判定。

学界长期以来有争议,认为避风港原则只适用于传统意义上Web2.0的业态。它源于美国《通信规范法案》第230条,又被美国《数字千年版权法案》引入,后为中国的《侵权责任法》所吸收,又在《民法典》被吸收和扩展。

之所以有避风港原则,是希望实现网络服务提供者(ISP)与网络内容提供者(SAP)的区分。Web1.0时代,二者是合一的,不存在责任豁免。到了Web2.0时代,出现了BBS等各种平台,平台可能只是ISP,用户则是SAP。用户为数众多,其内容是否侵权,平台无法掌控。因此,平台可在接到侵权通知后删除,如果拒不删除,则要承担责任。也就是说,明知或应知其中有侵权的东西并还允许其存在,平台才要承担责任。这就是“通知-删除”规则下的责任豁免。

现在的大模型是Web3.0。大模型平台是不是内容提供者?如果把它也认为是一个SAP,它就不能再享有“通知-删除”规则下的责任豁免。而法院在这起案件里,判定它仍能享有责任豁免。

《生成式人工智能服务管理暂行办法》规定,平台发现用户恶意使用的,要对用户采取各种处置措施。这里存在一些遗留问题,后来法律也有所回应。比如,平台认为用户内容侵权,把用户账号封了,或把用户内容消除了。此时,用户有什么权利?

根据《民法典》规则,平台接到删除通知后,要反通知用户,用户方面可提交声明等,有一系列规则,平台错误通知应负赔偿责任,等等。不久前公布的《网络交易平台规则监督管理办法》进一步规定,平台若要处罚用户,必须告知处罚理由,即违反何种法律法规或平台规则,使用户能够进行陈述申辩,还要告知用户可以去哪里进一步申辩,以进行程序性的保护。

由此,围绕着日常生活实践,法律规则不断变化发展。以平台规则为例,以前法律对平台规则的约束非常少,近年来则对此投入非常多的关注。实际上,平台规则就是网络空间中的法律,能够直接调整人们的行为。在这个意义上,要对平台规则重新认识和进行约束。比如《电子商务法》就规定了平台规则需要有公示程序。

从用户来看,一方面,应该提升使用者的数字素养能力。2021年,中国发布了《提升全民数字素养与技能行动纲要》,将提升数字素养作为重要工作。现实中也存在数字弱势群体,在数字接入能力、数字使用技能等方面较差。而数字技术需要会用和善用。

以往的数字素养提升,大多停留在让数字弱势群体会用的层面,做法也较为机械。比如,社区找人进行服务,上门教老年人用智能手机,大约三五分钟就操作完毕。老年人知道了有智能手机这回事,但有没有学懂,就不得而知。比如,他们会不会善意使用?怎么理解自己与技术之间的关系?如何理解大模型给到自己的回答不一定是完全真实的?数字素养提升是要告诉用户这些事情。

用户首先应懂得通用模型和垂类模型的区别。对于通用模型,和它聊天就像与门口大爷聊天。比如,我说自己感冒了,大爷告知一个偏方,我照做三天,病反而更重了。我能否起诉大爷?肯定不能。这就是瞎聊天,谁叫你信大爷。而对于垂类模型,如医药类的专业模型,相当于是医生这样说了,出了问题,就对应医疗事故和医疗责任。

另一方面,有些用户会恶意使用模型,对模型恶意引导。我们做红队测试时也体会到,确实能够把模型带偏。这时需要在价值对齐上下功夫。如果大模型只能防范单次攻击,那还是有问题的。应该令人工智能在底层逻辑上明白,有些底线要求是不能突破的,这类问题需要怎么问都不出错。

如何实现?国外有的公司开发了宪法AI(Constitutional AI),是自上而下的路径与自下而上的路径结合。先构建底线的知识图谱,大模型在此基础上进一步学习,构建明辨是非的能力,以防范多次攻击。

要求用户永远不攻击,是做不到的。一方面,要求服务提供者在识别到多次攻击之后,根据《生成式人工智能服务管理办法》等法律法规,对用户进行处置。另一方面,就要继续推进大模型的价值对齐。

不断发现真实问题,以交叉学科视角回应

澎湃新闻:法学的研究方式也在变革。法学界与业界的合作如何开展,有哪些新的视角和新的问题?

韩旭至:我们现在开展了非常多的横向课题。我所在的法学理论学科,以往少有跟业界合作。但这几年,法学理论学科,包括哲学学科,跟业界联系都很紧密。因为企业意识到,必须要跟理论界对接,才知道怎么给自己设定标准,否则会很混乱。价值对齐就是典型的例子。

举一个我所见到的事例。某个大厂内部,员工做模型标注,面对同一张骷髅头的图片,有些人认为是血腥暴力,应该屏蔽,有些人认为,连骷髅头都要屏蔽,屏蔽的东西可太多了,坚决认为这不能屏蔽。这就是人的价值观多元所导致的情况。

从合规和风控的角度,考虑万一出问题就要承担责任,就会倾向于屏蔽。但这样运行一段时间后,会发现模型基本就不能用了。有问题嫌疑的图片都不能生成,比如吸烟的图片、骨科的图片,等等,就会导致模型的使用率变得很低。这时,模型运营要和专业团队合作,把违反公序良俗、血腥暴力等界定清楚。

人的价值观多元是正常社会的表现。法律人或哲学家在其中要做的,是给人工智能确立一个不可克减的、最低的底线价值。其他方面肯定是要多元的。另外,人工智能的用户可在用户端设立自己的模型应用,进行更多轮交互后,该应用会与用户价值观更为一致,这样的做法我们肯定是允许的。

在这个意义上,我们与企业加强合作,进行研究和推进。三年以来,我所在团队至少跟三个大厂有业务合作,有做红队测试的,有做知识图谱的,也有做整个科技伦理框架的。

再举一个有关科技伦理框架的例子。2023年,《科技伦理审查办法(试行)》通过。2025年,《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》发布。按照办法,企业也会在内部做科技伦理审查。但很多企业实际并不知要怎么做。我调研时问企业,科技伦理审查是怎么做的,企业回答,只要这个东西有舆情风险,就认为不符合科技伦理,把它审查掉。

实际上,如果这么审查,可能与科技伦理审查的本意相违背。科技伦理审查最核心的关注点,是人的自主性问题。不能用人工智能替代人,去做出一些最重要的、与人的基本权利最相关的决策,必须要保证人类的参与。2021年,联合国教科文组织发布了《人工智能伦理问题建议书》。有很多要点。其中明确说到两点。最关键的是,保证人工智能系统的可解释性,这是保护人权的主要方法。其次是,要使得它做出与人的基本权利密切相关的决定时,保证人的控制,要有人最终承担责任。

人工智能肯定很好,但并不代表使用人工智能就一定好。数字化肯定导向美好生活,但不代表数字化等于美好生活,有可能是侵害个人权益,有可能使你失去人的自主性。数字技术的发展还是要以人的权利保护为中心,这是我们的基本立场。

澎湃新闻:在数字法学研究中,学科交叉的必要性以及意义,是如何体现的?

韩旭至:无论法学二级学科交叉,还是法学跟其他学科交叉,对数字法学的研究都非常关键。数字法学研究,肯定不能按照传统的部门法研究,各自从民法的角度、刑法的角度、行政法的角度去做。数字法学横跨各个不同学科,而不同学科也给法学打开新的视角。

比如传播学,麦克卢汉说媒介是人的延伸。从技术哲学的角度,唐·伊德认为具身关系只是人利用技术的第一层关系,第二层关系是诠释关系,即通过技术去理解世界,到第三层发展为它异关系,即技术偏离人们的认知,最后第四层是背景关系,即技术成为人日常生活的背景。如果现在停用所有数字设备,那么人的生活就会面对颠覆性的挑战。弗洛里迪说技术分为三级。一级技术是人直接利用工具改变世界。二级技术是人利用工具作用于另一个工具改变世界,比如,人利用螺丝刀拧螺丝。三级技术是工具自动化运行,自己去改变世界。人工智能就是工具的自动化运行。

社会学方面,吉登斯在《现代性的后果》里,提出嵌入和脱嵌的理论。数字技术也可借助这个理论进行分析。以往的社会运行和社会治理,是嵌入在具体时空中,法律关系也非常强调时空关系,即人在什么时间、什么空间做什么事情。比如管辖,强调时间要素、地域国别等。但到了数字社会,人与人之间的关系,包括法律关系,从传统的物理时空中脱嵌,在数字时空里重构为新的时空关系。从学科交叉的角度,这给法学研究者的启示就是,把传统的法律关系,套用在数字社会中,可能确实无法解决现在的问题。

比如,价值对齐方面,之所以需要过程式监管而不是结果式监管,是因为结果式的责任,更多对应传统的物理时空和部门法,比如到商场进行行政执法,这种执法样态可能已完全不适应现实需要,因此,在数字时空之下,我们提出容错式监管。

还有与经济学的交叉。法律经济学强调成本效益分析,认为法官要做的不只是判断谁对谁错,还要考虑把权力分配给创造最大利益的人,把损害分配给承担最小损害的人,即通过社会财富最大化和社会成本最小化来构建权利义务的关系。这些思路对数字技术治理也非常具有启发性。比如,在价值对齐上,人工智能服务提供者为什么需要在合理成本内承担义务。

我个人比较喜欢打破学科边缘做研究。如果立足本来的学科,研究什么就写什么,当然很简单也很轻松,但这不是解决问题的面向。尤其是,法学本身就有很强的现实关切,法学研究应该要解决现实问题。数字社会产生了很多问题,我们要去回应。这种回应是以问题为导向,而不是以学科为导向的——有时不是我想跨学科,是问题跨学科,要根据问题进行研究。

中国的数字法治正在不断完善,走出自己的道路

澎湃新闻:世界各地也有不同的数字法治实践,如美国、欧盟和中国,其不同实践背后有怎样的原因?中国该怎样兼收并蓄,实现技术的普惠性跟开放性?

韩旭至:对于人工智能治理,大家普遍关注欧盟、美国和中国这三个最典型的模式。而世界其他国家和地区,如东盟和非洲一些国家,都有各自的政策,也不尽相同。

以欧盟、美国和中国来比较。欧盟是统一立法、统一监管的模式。比如,《人工智能法》就是统一立法,在《产品责任指令》后又制定《人工智能责任指令》,是通过欧盟法的角度,试图发挥布鲁塞尔效应,起到统一监管框架的作用。欧盟的做法很关键的方面,就是建立一个壁垒,其他地区的产品和服务进入欧盟市场,需要受到它的监管。如《通用数据保护条例》(GDPR),还有《数字市场法》、《数字服务法》等。现在多被谈论的“数字守门人”,就是来自《数字市场法》。其他被讨论的监管方案,也都和这些法律相关。由此,这些框架发挥了全球的影响力,产生了布鲁塞尔效应。

美国很有意思,从2017年起多次提出要立人工智能法,但国会立法比较复杂和困难,没有一次能够立成。在拜登政府时期,拜登出台了关于人工智能监管的白宫行政令,提到要有符合一定标准的模型评估,也即要做类似模型价值对齐的工作。而特朗普上台之后,废止了拜登的绝大多数行政命令,其中也包括这个项目,又出台了人工智能治理的新的行政令。可看出美国的监管态度发生了转变。现在强调要促进人工智能企业发展,把原有的很多监管措施弱化。近年多个世界人工智能会议上,美国政府多次发言,表示要加强人工智能发展,保证美国在人工智能创新的引领性地位。

而中国的监管政策,是兼顾发展与安全。安全的确很重要,而目前是要反对关于人工智能的绝对安全观。如果以绝对安全为目标,那么最好的方法就是不搞人工智能,这样就不会出现人工智能的安全问题。我们强调,在监管的时候,要促进人工智能产业发展,并且要促进我们国家的人工智能企业发展。

有全球竞争力的人工智能独角兽企业,美国占比很多,中国也为数不少,而欧盟就没有多少。因此,欧盟能够采用强监管的策略,让别国企业进入欧盟市场,能够受到监管。而中国自己有很多人工智能企业,若照抄欧盟模式搞强监管,一是堵住了中国自己企业发展的路,二是起不到欧盟立法的作用。

中国的模式还在不断调试。前面提到,我们发布了《人工智能法(学者建议稿)》,后来更新了版本。更新重点在制度建立方面。我们认为,国家人工智能立法,当下可能还是适合分几步走。首先要提出总则性的法律。类似2000年通过、2011年修订的《全国人大常委会关于维护互联网安全的决定》,对于人工智能治理,也要先以这类总则性决定,提出执行方向。之后再对法律层面的框架逐步完善。这样,既不走美国道路,也不走欧盟道路,可以形成具有中国特色的人工智能治理路径,这也是中国法学自主知识体系构建的一部分。

不仅是人工智能治理,平台治理也是这样。如果复制西方路径,是完全行不通的。中国平台治理的很多方面,建立在网信部门的监管机制之上。西方强调的是平台监管,中国已经解决了相应问题。中国强调的是内容合规。需要从中国的发展特点出发,考虑如何为企业设定义务,使得其在中国运行得比较好,又能走向世界,加强国际竞争力。

澎湃新闻:“价值对齐”方面,近来有哪些新的技术路线、企业实践和政策趋势等,可供人们思考借鉴?

韩旭至:刚讲的宪法AI,就是新的趋势。2025年以来,也受到比较大的关注。我最近在思考,宪法AI作为一种企业实践,能否成为被推广的治理经验。“规制”一词常被滥用。实际上,“规制”有其特指,尤其是新兴技术的影响还不明确,对其进行监管时,如何进行控制和治理。在这个意义上,可以考虑如何将宪法AI纳入人工智能的规制框架之中。这是我最近在思考的话题。

平台治理,也是我最近在研究的话题。当下,很多对平台的责任要求,是分散式和碎片化的。比如,刚发布的《网络交易平台规则监督管理办法》,只是针对网络交易平台,其实还有很多类型的平台。社交媒体平台,大家都在广泛使用;零工经济的用工平台,与劳动者权益密切相关。这些平台的规则可能更为重要。需要更为整体的制度方案,给平台设定比较合理的义务,让平台进行治理。

可以说,平台有准立法权、准司法权和准行政权。平台规则,对应准立法权。平台的在线争议解决机制等,如ODR(Online Dispute Resolution),就是准司法权。如何将其纳入监管框架,也是要考虑的问题。欧盟2024年底废止了ODR平台,因为使用率极低。其后平台需要遵循《数字服务法》建立另一套框架提供解决纠纷的机制。而平台处罚,就是最典型的准行政权。如何对平台处罚进行治理?很多用户都遇到过各种处罚,比如假如多次退货,就没法再享受退货险,但未被具体告知违反何种规则和法律。平台的处罚权需要受到控制,至少要告知用户具体因何而受处罚。另外,处罚时也需考虑对基本权利的保护。比如,多年前Facebook在全平台屏蔽了一张越战期间的图片《战火中的女孩》,理由是裸体和暴力。但如果将其屏蔽,越战这一重要事件中的情景,人们就很难见到。需要考虑它的新闻属性,也是对基本权利的保护。因此,平台的经营自由,要与其他方面相平衡。需要综合考虑信息流通等基本权利的保护,进行平台治理。

澎湃新闻:对于中国法学自主知识体系的建构,您有怎样的看法跟建议?

韩旭至:数字法学领域的很多理论创新,都属中国法学自主知识体系的一部分。比如,数字人权理论,我们团队的马长山教授做了开创式论证。中宣部专门开过几次“数字人权”研讨会。“数字人权”一词也被全国科学技术名词审定委员会纳入规范表述。

数字法学的论述,中国有很多开创性的内容。比如刚提到的,中国所谈的平台责任范畴,与国外有一定差异。我们形成了一套自己的经验。还有数据权益,中国提出了数据三权,从持有、加工和使用的环节,对数据进行权属描绘。又把个人信息和隐私权二分,“隐私权与个人信息保护”是中国民法典人格权编的第六章的题目。这些做法与欧盟、美国都不一样。

建议方面,我觉得,法学是实践性的学科,必须找到真问题。真问题在实践之中。以数据治理中的数据交易为例。中国最早的数据交易所十几年前就已建立,目前早已倒闭。这是因为,当时虽然建了数据交易所,但大家没有数据交易需求。而现在的情况是,很多地方建了数据交易中心,却出现场外交易火热、场内交易很少的现象。

我经常借用“供给侧改革”一词。无论实践还是研究,都需要供给侧改革。需要什么,咱们就去干什么。不是说臆想需要交易,就搞套交易规则,而是实践中先形成交易,我们再去提炼交易规则。如果对交易约束做得不错,我们再引导交易方进入场内交易。上海数据交易所就是这样做的。引导大家到场内进行规范交易登记,并提供一条龙的服务。因为交易登记与合规相联系,而场外交易有法律风险,大家也更愿意进入场内交易。这样基于现实去设计,才能真正促进数据交易。

还有数字司法。数字司法发展非常迅速,可分为三个阶段。最早是从1990年代到2000年代初,法院推进各种信息化工程,如上OA等。世纪初10年是智慧司法,通过人工智能系统,推进法院的智能化和智慧化,让人更为便捷地走法律程序。

如果不去调研,就不知道。我去新疆调研时,发现当地使用智能系统的范围比我们熟悉的大城市更广。由于地理位置遥远,函件必须通过数字技术实现传输,而少数民族居民汉语也不是很溜,写起诉状可能比较困难。人们在办事大厅里,通过少数民族语言进行人机交互,由一套智能系统直接生成起诉状,这些智能化和智慧化的工作已经融入日常。

第三阶段就是现在的数字法院。不再是过往互联网法庭等单个试点,而是整体上结构性的数字化更新。最高人民法院发布了《人民法院在线诉讼规则》、《人民法院在线运行规则》和《人民法院在线调解规则》,是从规则上创新,从机制到体制到审判模式都在革新,统一建设全国一张网,覆盖了从审判到执行的全流程。

数字化的变革,影响到法律运行的每个环节,从立法到执法到司法到守法。其中都有深度的变革可供研究,数字法学研究前景非常广阔。

澎湃新闻:您2026年的研究计划是什么,有哪些分享给青年学者的材料跟方法,对他们又有哪些期待跟建议?

韩旭至:我今年关注的重点,一是平台治理相关,二是进一步研究价值对齐。

如果大家对此话题感兴趣,推荐关注上海人民出版社出版的“独角兽·人工智能”丛书,翻译的都是学界前沿的著作。对于之前没有关注数字法,而现在想研究的同学,我还是推荐《数字法理学》。可以由此滚雪球式地获取资料。先看相关作者的文献,再看参考资料中的文献,这些都是数字法学研究的关键文献。

我建议,大家的学习或研究,要契合中国实际,研究真问题。要多研究产业界跟理论界都比较关注的问题,而不是自己臆想出来的、根本与实践相去甚远的问题。数字法的研究还是要落到实处,它当然要有理论性,但理论是要服务于整个社会的发展的。