打开网易新闻 查看精彩图片

近日,在深圳市大数据研究院建院十周年暨产学研发展论坛上,研究院与深圳市中级人民法院共同签署《战略合作协议》,双方将联合开展司法人工智能通用标准研究、技术创新研发与应用场景落地,致力于推动审判体系与审判能力现代化,全面支撑数字法院高质量发展。

作为本次战略合作的重要成果,深圳市中级人民法院、深圳市大数据研究院与清华大学互联网司法研究院三方联合编制并发布《司法领域“智能体技术”应用指南》(以下简称《指南》)。本《指南》旨在为法院系统应用智能体技术提供方法论指导、明确应用边界、提示潜在风险,推动人工智能在司法审判辅助领域实现稳健、审慎、规范的应用。

《指南》提出,人工智能技术(包括大语言模型技术、智能体技术等)在司法领域的研发与应用应遵循以下四项基本原则,包括锚定辅助工具定位:明确人工智能作为辅助工具的属性,不得替代法官行使审判职能;深度融入审判环节:推动技术与审判流程深度融合,提升司法工作效率与质量;同步落实司法责任:在技术应用过程中始终坚持司法责任主体明确,确保权责清晰;全程确保数据安全:贯彻数据全生命周期安全管理,保障司法数据隐私与系统安全。

此外,《指南》特别指出,智能体技术仍存在不容忽视的安全隐患,其在数据安全、权限管控、恶意利用及系统防护等方面仍存在风险。若未经严格约束即应用于司法场景,可能对程序正义、责任归属、权限管理及司法公信力造成严重冲击。

具体而言,智能体技术在司法应用中主要存在以下四类风险:(一)权责边界风险:存在核心司法职权不当转移的潜在可能;(二)指令理解风险:任务指令可能被曲解或错误执行;(三)执行规范风险:能力组件调用与流程执行可能偏离法定程序;(四)系统安全风险:存在越权操作、数据泄露等安全隐患。

为统筹智能体技术的应用潜力与安全风险,《指南》在四项研发原则基础上,进一步提出以下四项“负面清单”,通过明确禁止性行为框定技术应用的安全底线:

(一)禁止转授决策性职权:不得将裁判权、审批权等核心司法决策职能交由智能体行使。

(二)禁止注入未治理数据:不得使用未经清洗、脱敏、合规审查的数据训练或驱动智能体。

(三)禁止应用未认证技能:不得调用未经安全评估、功能认证与合规审核的能力组件。

(四)禁止逾越安全性护栏:不得绕过或破坏系统内置的权限控制、审计跟踪与风险阻断机制。

相关人员介绍,该清单旨在以“底线思维”实施技术规制,一方面为技术创新保留合理空间,避免对技术路径作过度限制;另一方面坚决守住司法伦理与安全红线,确保智能体应用始终在法治轨道上运行。

采写:南都N视频记者 吴灵珊