Wolters Kluwer Health周四发布的调查显示,医疗工作者正在使用未经其机构批准的AI工具,这可能构成患者安全和数据隐私风险。
调查发现,超过40%的医疗工作者和管理人员表示他们知道同事在使用影子AI产品,而近20%的受访者报告自己曾使用过未经授权的AI工具。
这些未经批准的工具虽然对个别工作者可能有用,但他们的医疗系统尚未评估产品风险或考虑治理流程。Wolters Kluwer首席医疗官Peter Bonis博士表示:"问题在于,这些工具的安全性如何?效果如何?相关风险是什么?用户自身是否充分认识到这些风险?"
影子AI是指员工使用未经公司授权的AI产品,专家表示这在各行业中都可能构成严重安全风险。由于影子AI的隐蔽性,组织领导者和IT团队无法了解这些工具的使用方式,为网络攻击和数据泄露创造了机会。
网络安全已经是医疗机构面临的挑战,网络犯罪分子经常将医疗行业作为目标,因为该行业拥有宝贵的数据存储和高风险的医疗服务。
Bonis表示,医疗领域的风险可能更加严重。准确性是一个令人担忧的问题,因为AI工具可能提供误导性或不准确的信息,从而可能伤害患者。调查显示,约四分之一的医疗提供者和管理人员将患者安全列为他们对医疗AI最关心的问题。该调查涵盖了医院和医疗系统的500多名受访者。
"有各种各样的情况——尽管人类在某个时刻参与其中——这些工具会出现故障,而这些故障可能无法在护理点得到充分拦截,"Bonis说。
尽管如此,AI已成为医疗行业最令人兴奋的技术之一,人们希望这些工具能够帮助筛选大量数据、加快行政工作,并协助医生记录医疗服务和查找医疗信息。
调查显示,一些工作者转向影子AI工具来实现这一目标。Wolters Kluwer提供自己的AI支持的临床决策支持产品。
超过50%的管理人员和45%的医疗提供者表示他们使用未经授权的产品是因为这些产品提供了更快的工作流程。此外,近40%的管理人员和27%的提供者报告使用影子AI是因为该工具具有更好的功能或没有已批准的产品。
最后,超过25%的提供者和10%的管理人员将好奇心或实验作为使用影子AI的原因。
许多医疗工作者不了解其组织的AI政策。调查显示,与医疗提供者相比,管理人员更有可能参与AI政策制定。但29%的提供者表示他们了解组织的主要AI政策,相比之下,只有17%的管理人员表示了解。
Bonis说,许多提供者可能遇到过一些与AI记录员相关的AI政策——这些工具通常记录临床医生与患者的对话并起草临床笔记——因为这些工具已在医疗系统中被广泛采用。
"这可能是他们说自己了解的原因,但他们可能没有完全意识到所有可能被视为AI政策的事项,"他说。
Q&A
Q1:什么是影子AI?为什么在医疗领域存在风险?
A:影子AI是指员工使用未经公司授权的AI产品。在医疗领域风险更严重,因为AI工具可能提供误导性或不准确的信息,从而可能伤害患者,而且由于其隐蔽性,组织无法了解使用方式,容易造成网络攻击和数据泄露。
Q2:医疗工作者为什么要使用未经批准的AI工具?
A:调查显示,超过50%的管理人员和45%的医疗提供者使用未经授权的产品是因为工作流程更快。近40%的管理人员和27%的提供者使用是因为工具功能更好或缺乏已批准的产品。还有部分人员出于好奇心或实验目的。
Q3:医疗机构如何应对影子AI的使用?
A:医疗机构需要制定完善的AI政策并确保员工了解。目前许多医疗工作者不了解组织的AI政策,只有29%的提供者和17%的管理人员表示了解主要AI政策。机构应该评估AI工具的安全性、有效性和相关风险。
热门跟贴