研究人员创建了一种新工具ELAXIR,以提升人工智能素养并提高对在医疗保健中使用人工智能的伦理挑战的认识。它由一套物理和数字卡片组成,并附带有相关的学习资源。
ELAXIR的目标是加深对关键术语和概念的理解,并促进医疗保健专业人士、患者、公众、研究人员和人工智能开发者之间的讨论与思考。ELAXIR代表伦理学习的可解释人工智能与反思。
人工智能在医疗保健的研究和实践中越来越多地应用——从分析电子健康记录的人工智能方法到推动远程监测的新方法。人们对人工智能在医疗保健中伦理使用的关注日益增加,包括患者数据隐私、算法偏见、透明度和人类监督等概念。提高对这些原则的理解,对于确保人工智能作为有价值的医疗资源被负责任地使用至关重要。
ELAXIR项目由伦敦国王学院精神病学、心理学与神经科学研究所的精准医学统计学习的讲师Raquel Iniesta博士领导。这些卡片是与一个国际研究团队共同设计的,该团队包括一些有相关经历的研究人员、开发人员、临床医生,以及患者和公众的参与(PPIE)。
ELAXIR工具的基础是“患者延伸”协作模型(Iniesta,2025),该模型提出,为了确保人工智能在医疗保健中的使用是伦理的,患者必须理解人工智能的工作原理和他们在这一领域的权利,以便能够在自己的护理中做出关于人工智能使用的决策。这需要开发者、临床医生和患者之间的合作,以安全地设计、实施和使用人工智能,并以患者为中心的方法为核心。
“《时代杂志》最近将人工智能的设计者评选为‘2025年度人物’。尽管其潜力巨大,人工智能也带来了严重风险,尤其是对脆弱人群。人们对心理健康危害的担忧日益增加,在极少数和极端情况下,甚至可能与自杀或暴力相关。我们创建了ELAXIR卡,旨在让每个人——不仅仅是专家——都能理解这些风险,并负责任地使用人工智能,”Iniesta说。
ELAXIR 卡片组由三个部分组成:
- 主卡片:这些卡片解释了基本概念,如“人工智能”和“伦理”。
- 情景卡片:13个引人深思的情景,由临床医生、开发者和患者共同设计,以引发关于人工智能在医疗保健中使用的讨论。这些情景基于患者健康护理旅程中可能发生的场景,例如:是否应该在患者不理解其工作原理的情况下使用人工智能来做出治疗决策?当医生和人工智能给出矛盾的建议时,患者应该怎么做?如何解决人工智能中的偏见,例如当人工智能对少数群体的表现不佳时?
- 伦理人工智能词典:这是一个从A到Z的词典,解释了关键术语,如“算法”和“风险”。这些词与情景相关联。
这些卡片旨在让各种受众都能使用:它们适合与PPIE小组进行讨论,也适合10岁及以上的儿童使用。这些卡片配有一个网站——elaxircards.com——提供额外的资源、文章、播客和研究,扩展医疗保健中伦理人工智能的相关话题。
自2023年10月以来,拉奎尔·伊涅斯塔博士开发了“患者延伸”协作模型。这个倡议的核心是教育所有利益相关者(患者、临床医生和开发者)医学伦理和人工智能的基本知识。这种方法旨在防止去人性化,同时在人工智能辅助的以患者为中心的医疗体系中促进患者的赋权。
这个模型是“五个事实”方法的一部分。这是对伦理人工智能及其责任主体的简单、基于证据的说明,作为医疗服务中伦理人工智能的框架,发表在人工智能与伦理期刊中。这个框架是基于世界卫生组织(WHO)的指导和当前政策,比如欧盟人工智能法案和通用数据保护条例(GDPR),ELAXIR卡标志着将这个框架付诸实践的下一步。
更多信息: Raquel Iniesta, 确保医疗保健中伦理人工智能的人类角色:五个要点的方式, 人工智能和伦理 (2023). DOI: 10.1007/s43681-023-00353-x
热门跟贴