(来源:中国医药报)

转自:中国医药报

□ 肖平辉

近年来,在人工智能技术的助推下,全球手术机器人正不断向“智能自主”的范式转变。智能手术机器人日益增强的自主决策能力也对传统的医疗器械监管框架提出了新的挑战。国际上有不少学者提出,参照自动驾驶汽车分级(L0~L5)对智能手术机器人进行类比分级。这一分级分类逻辑有别于传统医疗器械按风险进行静态三级分类,这一新思路也给监管提出全新命题。

各国围绕智能手术机器人自动化程度不断提升的趋势进行了监管探索。《中华人民共和国国民经济和社会发展第十五个五年规划纲要》(以下简称“十五五”规划),将智能手术机器人等高端医疗器械划为着力培育发展的新产业新赛道,提出要建立适应新业态发展的高效便捷准入机制,探索“沙盒监管”、触发式监管等新型监管方式。

笔者牵头的广东省哲学社会科学规划项目“医疗人工智能法治挑战与大湾区协同进路研究”(GD26DW09),对于“沙盒监管”在医疗领域的适用路径、风险评估等进行了系统研究,其研究成果有望为智能手术机器人的监管提供创新制度路径与动态治理思路,从而在保障安全的前提下,为技术迭代与临床应用留出可控的试错空间。

海外探索——

适应算法迭代的动态监管

美欧医疗器械相关监管起步较早。以美国食品药品管理局(FDA)为例,对于医疗人工智能监管的核心在于如何适应人工智能算法特有的持续学习与动态演进特性。在探究美国的监管路径前,首先需要厘清三个核心概念:人工智能赋能的医疗器械、独立软件(SaMD)以及含软件组件的医疗器械(SiMD)。

对于传统的医疗器械,美国FDA主要依据产品的预期用途及临床风险将其分为三级,并实施分类监管。而早在人工智能概念出现之前,在软件开始进入医疗器械领域时,美国FDA将软件与医疗器械结合的场景细分为SaMD和SiMD两大概念组别。其中,SaMD指的是不作为硬件医疗器械一部分、自身即具有医疗用途的独立软件(如影像辅助诊断算法);SiMD则是指嵌入在有形物理医疗设备中的软件组件(又称固件)。

随着人工智能技术,特别是机器学习技术的成熟,近年来,美国FDA将由人工智能驱动的产品统称为人工智能赋能的医疗器械,并将其中的软件部分称为为人工智能赋能的医疗器械软件。

美国FDA传统的三级分类监管模式是基于医疗器械静态风险逻辑设计的。而在人工智能领域,算法具有自学习、自主化和自动化的动态风险特点,传统监管理念面对人工智能赋能的医疗器械,显得难以适应。传统医疗器械监管建立在“静态审批”的逻辑之上,默认产品获批后其性能与算法将被“锁定”,任何实质性变更均需要重新提交审批申请,如上市前通知[510(k)]或上市前批准程序(PMA)。然而,这种模式削弱了人工智能基于真实世界数据持续优化的核心优势。为此,美国FDA推出了一系列监管新举措。2019年,美国FDA首次提出并在2024年正式落地了PCCP机制。

PCCP机制允许制造商在初始产品注册时,预先定义未来算法可能发生的变更范围以及实施这些变更的协议。只要后续的算法迭代处于PCCP批准的边界内,企业便不需要重新提交审批申请,从而极大地加速了技术迭代并降低了合规成本。配合PCCP,美国FDA进一步提出了全生命周期监管模式,将监管重心从“上市前的一次性静态审批”向“上市后的持续动态监测与质量管理”转移。全生命周期监管理念,回应了人工智能时代的手术机器人具有动态进化的特性,强调监管不应止步于上市审批,而应延伸至上市后性能监测、不良事件报告及算法动态演进等环节,对这些环节进行持续监控管理。

值得关注的是,目前美国FDA的PCCP机制与全生命周期监管创新主要集中在SaMD领域,比如放射影像类软件。由于智能手术机器人不仅包含算法,还涉及机械臂的运动控制、力反馈及与人体的直接物理交互等,一旦算法出现偏差,其产生不可逆损伤的风险远超体外运行的SaMD。因此,尽管手术机器人在技术上已出现对于更高程度自动化的探索,但美国FDA至今仍将所有批准的手术机器人定性为计算机辅助手术系统,要求外科医生对手术安全负全部最终责任。智能手术机器人理论上属于SiMD,也就是所谓的物理或具身人工智能,笔者认为,上述新监管理念和机制在智能手术机器人领域的应用还有待观察。

我国特点——

算法锁定并严控数据质量

国家药监局在构建我国特色医疗人工智能监管框架时,充分借鉴了国际经验,但在具体执行路径与风险控制方面,展现出了更为审慎的态度。根据《人工智能医疗器械注册审查指导原则》(以下简称《指导原则》),我国的人工智能医疗器械概念覆盖了人工智能独立软件(SaMD)与含有人工智能软件组件的医疗器械(SiMD)。概念上虽然与美国FDA相似,但在算法更新控制与数据质量治理方面,我国监管更为谨慎。

第一,算法完全锁定与自学习禁令。不同于美国FDA通过PCCP机制允许特定范围内的算法自我迭代,我国现行相关规范对算法动态演进采取了完全锁定政策。《指导原则》提出,在当前法律法规体系和技术水平条件下,具备持续学习或自适应学习能力的产品应关闭自学习功能,或者虽开放自学习功能但不得投入使用。这意味着,医疗机构部署的智能手术机器人必须运行在经过严格验证的静态锁定算法之上,其自学习功能仅能用于闭环的医学科研等非临床的算法训练。这里的考量在于,若允许设备在临床端开放自学习,用户(医生或医疗机构)在实质上将转变为算法开发者,这将导致产品责任在制造商与使用者之间产生混淆。《指导原则》还提出,人工智能算法更新若影响到人工智能医疗器械的安全性或有效性,则属于重大软件更新,应申请变更注册。

第二,高标准的数据全链条监管及严格的安全性要求。人工智能的有效性依赖于底层数据质量。我国执行的是一种高准入门槛的质量控制指令。《指导原则》要求,算法训练的数据需要考虑来源的合规性(符合《中华人民共和国个人信息保护法》),更对数据采集、整理、标注等设定了操作规范。特别是在数据标注环节,界定了标注人员、审核人员的资质(如职称、临床年限)等,并提出自动标注软件的标注结果不得直接使用,需要经由人工审核后方可使用。此外,为了防止数据污染,《指导原则》还要求数据的整理、算法的训练与评估等内部活动需要在封闭或受控的网络环境下开展。

可以看出,我国在鼓励高端医疗器械创新的同时,坚守产品安全底线,以标准化、严监管对抗黑箱算法的不确定性。这种审慎的态度对于直接涉及人体内脏侵入性操作的智能手术机器人而言,具有充分的正当性与合理性。

未来展望——

充分兼顾严谨性和包容性

面对智能手术机器人自动化程度不断提升的技术现实,我国亟须在保持监管审慎的同时,探索一条能够容纳技术持续迭代的监管模式。

“十五五”规划对于新产业新赛道,提出探索“沙盒监管”、触发式监管等新型监管方式。这一战略部署,为破解智能手术机器人的监管挑战提供了顶层设计支持。

“沙盒监管”是指在可控范围内,确保风险不外溢的前提下,对范围内的企业采取包容审慎的监管措施,允许其在真实市场环境中测试新产品、服务或商业模式,并建立容错纠错机制,其核心逻辑是为创新产品提供一个风险可控的真实市场测试环境。将这一理念引入智能手术机器人领域,意味着未来有望针对特定高阶自动化手术机器人,建立受控的真实世界测试环境,即在风险隔离的制度空间内,谨慎地引入创新监管模式。例如,允许入盒的领先制造企业,试行算法变更控制计划,实施智能手术机器人全生命周期监管试点。

来自临床的声音同样重要。例如,中山大学肿瘤防治中心肝外科简沛恩博士认为,探索“沙盒监管”应尤其关注以下方面。其一,高质量的临床数据是产品研发、算法验证与监管决策制定的重要依据,“沙盒监管”试点应建立强制临床效果监测与报告体系。其二,随着智能手术机器人自动化等级提升,医生的角色将从“操作者”转向“监督者”,配套的培训、认证与权责界定不可或缺。其三,“沙盒监管”试点中应设立独立的患者安全与伦理审查委员会,明确知情同意内容及超预期事件的紧急接管与责任豁免流程。其四,智能手术机器人的临床应用有赖于医生、工程师、数据科学家、伦理学家与医疗机构管理者的跨学科协作,应注意推动跨学科协作模式的制度化。

在具体的实施路径上,可以充分利用区域政策优势开展先行先试。建议在医疗资源集聚且创新政策灵活的地区,率先设立智能手术机器人“沙盒监管”试点基地,在试点基地引入可一定程度应对算法自学习、自动化等特点的动态监管机制。在特定的高水平医疗机构内,通过药监、卫生健康、网络安全等多部门协同监管,对前沿的物理具身智能手术系统进行受控测试、真实世界数据验证和推广应用。这不仅能为国家层面制定普适性医疗(用)机器人自动化分级以及制定手术机器人的自动化分级规范与动态监管机制积累实证数据,更有望为本土创新企业在全球竞争中赢得抢跑时间。

“十五五”规划在“人工智能+”全球合作方面提出,推动成立世界人工智能合作组织,建设“一带一路”人工智能多边合作平台、国际人工智能应用合作中心,推动各国共同制定监管框架、技术标准和伦理规范。这一战略部署为我国参与乃至引领全球智能手术机器人治理提供了历史性机遇。智能手术机器人的发展面临着跨国流通、数据隐私及算法黑箱等挑战,这要求国内监管必须与国际规则相协调。目前,我国在国际医疗器械监管者论坛(IMDRF)和全球医疗器械法规协调会(GHWP)中均发挥重要作用。世界人工智能合作组织有望成为又一个全球治理平台。未来,我国有望依托世界人工智能合作组织的顶层设计优势,衔接IMDRF技术严谨性与GHWP包容性,以智能手术机器人为突破口,在医疗人工智能算法、数据、医疗伦理等领域掌握一定的国际话语权。

(作者系广州大学法学院医药食品法研究中心主任、副教授)