打开网易新闻 查看精彩图片

连日来,多家医学院校发文,督促师生员工审慎使用“龙虾”等智能代理软件,非必要不使用,如确需使用,应严格遵循一定安全要求。

专家表示,医疗关乎生命,AI赋能医疗必须以安全为底线。

撰文 | 文慧、燕小六

打开网易新闻 查看精彩图片

近期,开源AI智能体框架OpenClaw(俗称“龙虾”)在网络上迅速走红。

它具有高度的“自主执行”能力,可以自主进行文件管理、邮件收发、批量数据处理等复杂任务,一经推出便在全球范围内引发部署热潮。但这并不安全,今年2月以来,工信部、国家互联网应急中心多次发布相关风险预警。

3月13日,国家网络与信息安全信息通报中心再次发布预警,明确指出OpenClaw存在架构设计缺陷多、默认配置风险高、高危漏洞数量多等五大安全风险。据通报数据,我国境内活跃的OpenClaw互联网资产约2.3万个,呈爆发式增长态势。

“医学界”梳理发现,在国家层面密集预警的背景下,北京协和医学院等多家医学院校已紧急发布相关通知,提醒师生员工审慎使用“龙虾”等智能代理软件。

这背后的原因或许是,对于医学院及其附属的医疗机构而言,“龙虾”的风险远比其他行业更加复杂、也更加严峻。

协和带头,多家医学院校紧急提醒

据“医学界”不完全统计,目前已有北京协和医学院、广东医科大学、内蒙古医科大学、新疆医科大学、重庆医科大学、温州医科大学、南京中医药大学、杭州医学院等十余家医学院校发布了OpenClaw的风险提示。

各院校的应对力度不尽相同,但态度一致明确。

北京协和医学院信息办通知明确要求各部门、各学院及各所院广泛传达并督促师生员工审慎使用“龙虾”等智能代理软件,坚持“非必要不使用”的原则。如确需使用,应严格遵循六大安全要求。

内蒙古医科大学则严禁在网络信息中心统一分配、管理的服务器及校园公共计算资源上安装、部署、运行OpenClaw相关程序。

打开网易新闻 查看精彩图片

图源:智慧内医大

广东医科大学着重提醒师生,部署OpenClaw要注意防护,避免电脑里的毕业论文、实验数据、科研成果,以及个人账号密码、校园信息等面临被窃取、篡改的风险。新疆医科大学同样在3月11日发文提醒,审慎使用“龙虾”。

打开网易新闻 查看精彩图片

图源:新疆医科大学

在国家层面的密集预警之下,全国已有数十所高校均已发布类似通知,甚至严禁办公电脑安装“龙虾”。

其中,医学院校的应对值得关注,因为它们不仅是教学科研机构,更直接连接着临床医疗体系,承载着远比普通高校更为敏感的数据资产。

通常而言,一所医学院校的网络环境中,往往同时运行着教务系统、科研数据库和附属医院的临床信息系统,任何一个环节的安全漏洞,都可能产生链式反应。

某大学附属医院员工告诉“医学界”,目前他所在的医院虽未就“龙虾”单独下达通知,但作为大学附属机构,学校的要求,医院会跟着执行。

科技型医疗服务企业“邻家好医”创始人兼CEO罗林对“医学界”表示,OpenClaw在医疗圈的热度在不断提升,不过在临床一线,其应用仍处于早期探索阶段,业内心态整体保持“关注且谨慎”。

医疗机构为何要格外警惕?

“龙虾”的安全风险是普遍性的,但对医学院或医疗机构来说,这些风险一旦落地,后果可能远比其他行业严重。

这首先与医疗数据的特殊性有关。

医院信息系统中存储着海量的患者隐私数据——姓名、身份证号、病史、诊断结果、检查影像、基因检测信息等,这些数据一旦泄露,不仅侵犯患者个人权益,还可能触发严重的法律后果。

与一般商业数据不同,医疗数据具有高度的不可逆性,即一个人的病史和基因信息等一旦外泄,无法像更换密码那样补救。

对医学院校而言,风险还叠加了一层科研维度。

大量尚未发表的临床试验数据、药物研发资料、科研成果储存在校园网络中,如果被OpenClaw在自主执行过程中读取甚至外传,不仅涉及知识产权损失,还可能影响正在进行的临床研究的合规性。

正如广东医科大学在通知中特别提到的,毕业论文、实验数据、科研成果都是需要重点防护的对象。

罗林对“医学界”表示,如果未经严格管控就将OpenClaw引入医院内网环境,等于在核心医疗系统中打开一扇“未知之门”。患者的敏感信息将直接暴露在风险之下,隐私保护防线可能全面失守。

更深层的隐忧在于医疗数据的完整性。

罗林指出,病历数据一旦被恶意或错误修改,将直接埋下医疗事故的隐患。在临床实践中,医生的每一个诊疗决策都建立在对病历信息的信任之上。

如果一个AI智能体在“自主执行”过程中篡改或丢失了关键的检查结果、用药记录或手术记录,后果不堪设想。更棘手的是,这种篡改往往是隐蔽的,医生未必能在第一时间察觉。

权限失控则是另一重风险。一旦OpenClaw获得了对医院信息系统的深层访问权限,系统遭到破坏、数据记录丢失等情况就可能发生。

此外,还有网络安全专家指出,AI智能体本身固有的“幻觉”问题在医疗领域尤其危险。普通用户使用AI时,一个错误的回答或许只是带来不便;但在诊疗环节,如果AI给出了错误的辅助建议,而临床人员未能及时识别和纠正,后果可能直接关乎患者的生命安全。

AI医疗,安全是底线

值得注意的是,从制度层面来看,医疗行业受到的监管力度本就远高于一般行业。

《个人信息保护法》将医疗健康信息列为“敏感个人信息”,处理此类信息需要取得个人的单独同意,并采取严格的保护措施。

《数据安全法》和《网络安全法》也对关键信息基础设施的运营者提出了更高的安全要求,而大型医疗机构的信息系统往往属于这一范畴。

一旦因部署“龙虾”导致数据安全事件,医疗机构面临的不仅是技术层面的损失,更可能是法律层面的严厉追责。

罗林对“医学界”表示,以OpenClaw为代表的AI智能体在医疗领域确实有广阔的应用前景——从智能导诊、病历整理、报告解读,到患者随访管理和科研数据分析,落地场景清晰可见。

但他强调,AI医疗,安全是底线。风险规避的关键在于如何定义“自主”边界。

“让AI拥有'执行权',但医生必须牢牢守住‘决策权’与‘确认权’。”罗林说,“落实到具体操作,一定要提前给AI设定好什么能做、什么不能做。所有开出的药、给出的诊断建议,必须经过医生亲自确认、电子签名,才能生效。”

对于医疗机构,罗林建议应做好网络隔离,为智能体设立专属“数字隔离带”,确保核心临床系统不受冲击;必须制定风险预案,明确人机权责边界,确保一旦失控,人工能随时接管;同时要培养既懂医疗又懂AI的复合型人才,为技术落地配好“领航员”。

归根结底,医学院校及其附属医院对“龙虾”的禁用与慎用,并非对AI技术的排斥,而是对医疗行业特殊性的理性认识,在一个直接关乎人命的领域,任何技术的引入都必须以安全为前提。

打开网易新闻 查看精彩图片

来源:医学界

校对:蔡 菜

运营:王奥雅

责编:汪 航

值班:郭雪梅

*“医学界”力求所发表内容专业、可靠,但不对内容的准确性做出承诺;请相关各方在采用或以此作为决策依据时另行核查。