打开网易新闻 查看精彩图片

生成式AI在医疗健康与制药领域展现出巨大潜力,但一项2025年的跨行业调查揭示了一个令人警醒的现实:44%的企业曾因使用生成式AI而遭受负面影响,平均每次事件造成的财务损失高达440万美元。

在精准度至关重要、直接关乎人类生命的制药与医疗健康领域,这一风险以最危险的形式呈现——AI幻觉,即系统以过度自信的方式输出虚构或不准确的内容。随着这项强大技术在医学写作、临床研究、文献综述等关键工作流程中的应用不断加速,不可靠的AI已成为临床信任的核心障碍。

要安全地释放生成式AI的真正潜能,行业必须从使用通用开放式模型转向要求以证据为基础的系统,优先保障可验证的临床数据与严格的人工监督。

医疗健康领域AI幻觉风险的持续升级

AI幻觉造成的后果已经可以被量化,且十分严峻。这些不准确的输出已成为企业层面的潜在责任,而非罕见的边缘案例。在医疗健康与制药环境中,即便是微小的事实偏差,也可能迅速演变为重大患者安全隐患、监管问题、诉讼风险和声誉损害。当错误或误导性信息渗入AI辅助文档时,极有可能在电子健康记录中扩散传播,最终影响临床决策、延误适当治疗,并损害患者预后。

现有证据表明,当前医疗AI系统在这些基本缺陷面前仍高度脆弱。2023年发表于《JAMA网络开放》(JAMA Network Open)的一项研究显示,AI生成的出院摘要中有18%包含不完整或误导性信息。同样,在高风险的专业环境中,已有专业人员因提交含有AI生成的虚假脚注和捏造数据的报告而受到严重处罚。

通用AI工具从根本上并非为基于证据的医疗环境而设计,导致其在需要严格可追溯性、引用准确性和法规合规性的工作流中天然缺乏可靠性。当前用户行为与系统平台的局限性进一步加剧了这一问题。研究显示,仅有39%的用户会通过外部来源核实AI生成的信息,这揭示了过度依赖自动化与必要验证实践之间存在的危险鸿沟。此外,当用户将AI应用于海量、结构混乱的数据集且提示词模糊时,幻觉现象会显著加剧——这种做法往往超出底层模型的上下文窗口,导致系统混乱,进而生成以权威事实面目出现的虚假回应。

推进基于文档的生成式模型

为了有效降低这些深层风险,制药企业和临床研究团队必须从根本上重新设计将AI融入日常业务的方式。AI幻觉并非大语言模型不可避免的缺陷,而是可以通过合理部署、精心的提示词设计以及经过筛选的结构化输入数据加以减少的——同时,在输出结果影响监管申报和医疗传播之前,专家审核是不可或缺的关键保障。当幻觉现象减少后,医学写作团队可以对AI输出建立更高的信任,将人工核实用于确认准确性,而非修正从根本上就不可靠的草稿。

战略机遇在于:从宽泛的开放式应用转向高度结构化、以文档为基础的方法。例如,在起草临床研究报告某一章节时,系统将输出内容严格限定在申办方的试验方案、统计数据和经批准的原始文件范围内,并为每个段落提供引用来源。通过将AI输出严格锚定于经过核实的原始材料,医学写作团队可以大幅降低在撰写临床研究报告、综合文献综述和监管申报等复杂任务中出现虚假数据的概率。

这种精准化方法将AI从一个不可预测的文本生成器,转变为能够支持更快速证据综合、减少医学写作人员返工的高度可靠工具。要实施这一运营范式,需要在系统架构和健全治理机制上有所为。各机构必须采取具体的、以证据优先的策略,以确保可靠性,并赢得医疗从业者、监管机构和患者的信任。

实施基于文档的推理

各机构必须将AI系统配置为优先采用经过核实、已上传的医学文献、经批准的标签说明和经过同行评审的检索结果。通过将模型约束为仅从受管控的资料库和高质量来源中提取答案,而非依赖其广泛的历史训练数据,各机构可以从根本上消除产生虚假信息的主要诱因。系统应被设计为能够显示确切的原始文件,并提供支持每项结论的具体表述。

强制执行保守的信息处理原则

系统必须经过专门设计,能够识别自身局限性。当临床试验数据或患者信息缺失或不完整时,AI应被明确编程为显式承认数据缺口,或提供定性评估,而不得为满足用户提示而猜测或编造数值。

强制要求专家人工监督

AI必须明确定位为辅助工具,而非临床或科学专业知识与判断的自主替代者。工作流程必须要求进行严格的人工审查,确保药剂师、医生、研究人员、医学写作人员、药物警戒专家、法规事务专业人员和主治医师,对照原始临床或科学证据对AI生成的解读承担完整的核实责任。

向实施规范化转型

整个医疗健康行业的转变正在加速:从技术采纳,转向对AI实施的严格规范化管理。展望未来,制药行业对AI的信任,将在很大程度上不再取决于特定模型的原始算力,而更多取决于这些系统的架构方式、验证流程,以及如何嵌入高度受监管的环境之中。

随着开发者与医疗机构携手推行证据优先配置和透明溯源机制,AI幻觉这一普遍风险将逐步降低。对于在这场前所未有的变革中前行的临床与制药行业专业人员而言,这些结构性进步提供了一条清晰、可操作的路径,助力安全地运用AI平台。通过优先保障可验证数据与人工问责机制,各机构最终可以在提升运营效率的同时,始终不牺牲受监管行业和患者护理所要求的严格精准度。

Q&A

Q1:AI幻觉在医疗领域会带来哪些具体危害?

A:AI幻觉在医疗和制药领域可引发严重后果。错误或误导性信息一旦进入AI辅助文档,可能扩散至电子健康记录,影响临床决策、延误适当治疗并损害患者预后。2023年《JAMA网络开放》研究显示,AI生成的出院摘要中有18%含有不完整或误导性信息。此外还可能引发监管处罚、诉讼风险和声誉损害,平均每次事件造成的财务损失高达440万美元。

Q2:如何通过基于文档的方法减少AI幻觉?

A:基于文档的方法要求将AI系统配置为仅从经核实的原始文档中提取答案,例如试验方案、统计数据和经批准的来源文件,而非依赖模型的历史训练数据。系统需显示每项结论对应的具体引用来源,同时限制模型在数据缺失时进行猜测或编造数值。这种方式可大幅降低临床研究报告、文献综述和监管申报中出现虚假信息的概率。

Q3:在AI辅助的医学写作流程中,人工监督应该如何落实?

A:AI必须明确定位为辅助工具,而非专业判断的替代者。工作流程须要求药剂师、医生、研究人员、医学写作人员、药物警戒专家及法规事务专业人员,对照原始临床证据对AI输出进行严格核实,并承担完整的验证责任。人工审核的重点应是确认准确性,而非修正从根本上不可靠的草稿。