打开网易新闻 查看精彩图片

你敢信吗?一个完全凭空捏造、从头到尾写满破绽的假疾病,不仅骗过了微软Copilot、谷歌Gemini这些主流AI大模型,甚至混进了正经医学期刊,通过了同行评审正式发表,直到Nature记者介入调查,才被紧急撤稿。

这件看似荒诞的闹剧,将AI时代医疗领域最致命的安全漏洞与信任危机,赤裸裸地展示在了我们的面前。

一个凭空捏造的假病

撕开了AI时代

医疗安全的致命漏洞

这场实验的发起者,是瑞典医学研究者Almira Osmanovic Thunström。2024年,她在预印本平台上传了两篇论文,煞有介事地描述了一种名为Bixonimania的眼周疾病,称其是眶周黑色素沉着症的新兴亚型,由长期屏幕蓝光暴露引发,患病率约为每9万人1例。

但事实上,这种病从头到尾都不存在,整篇论文更是塞满了一眼就能识破的破绽:第一作者的名字、头像全由AI生成,供职的大学与地址纯属虚构;致谢部分玩梗式感谢了《星际迷航》企业号上的教授,以及“护戒远征大学”的科研资助;受试者一栏明明白白写着“50名编造的受试者”,甚至正文里直接用英文标注了“这整篇论文是编造的”。

Almira的初衷,只是想验证AI会不会把未经审核的预印本内容,当成真实的医学事实输出。而结果,远比她预想的更离谱。

论文上传仅几周,各大主流AI就纷纷“上钩”:微软Copilot明确告知用户,这是一种真实存在的罕见病症;谷歌Gemini直接建议出现相关症状的用户及时就诊眼科;Perplexity更是原封不动地照搬了论文里“每9万人1例”的患病率数据。

打开网易新闻 查看精彩图片

图源:preprints.org

更讽刺的是,不仅AI上当,连人类的学术审核体系也一起失守。印度一所医学院的研究团队,在医学期刊Cureus发表的综述中,直接引用了这篇假论文,将Bixonimania称为眶周黑色素沉着症的新兴亚型,而这篇综述,居然顺利通过了同行评审正式刊发。直到2026年3月Nature记者就此事联系期刊,这篇文章才被紧急撤稿,撤稿声明中甚至还标注了“作者方不同意这一决定”。

这件事的可怕之处,从来不是AI会产生幻觉,而是两个存在已久的学术漏洞,在AI时代被无限放大了:一是预印本平台没有同行评审门槛,任何内容都可以随意上传传播;二是传统同行评审环节,普遍不会核查引用文献的原始内容。

过去,一个医生的诊断失误,只是影响有限的个案,可追溯、可隔离;但在AI时代,虚假的医学信息一旦被大模型学习吸收,就会在所有调用这套系统的场景里同步复现。错误不再是单个医生的个案,而是系统性、全场景扩散的规模化风险,最终承受伤害的,永远是普通患者。

打开网易新闻 查看精彩图片

图源:Cureus

比起三甲主任的资历,

患者居然更信AI的诊疗结果

假病闹剧的背后,还有一个更值得警惕的现实:患者对医疗AI的信任,已经发生了根本性的转向。两项发表在JAMA Network Open上的重磅研究,彻底戳破了传统医疗行业延续了几十年的信任逻辑。

第一项研究共调查了1455名患者,评估他们对门诊就诊消息回复的接受度。结果显示,在整体满意度超75%的前提下,受访者对AI撰写的回复偏好度更高,原因很简单,AI起草的内容篇幅更长、细节更丰富,在患者眼中,反而传递出了更强的同理心。

但一个关键的反转也随之出现:一旦明确告知患者消息由纯AI撰写,他们的满意度立刻大幅下降;只有告知内容是“医生在自动化工具辅助下撰写”时,满意度才达到峰值。这足以说明,患者从来不是排斥AI技术本身,而是拒绝被AI取代,他们需要的,是医生始终在场的确定性与安全感。

打开网易新闻 查看精彩图片

图源:JAMA Network Open

另一项规模更大的研究,进一步摸清了患者选择的核心逻辑。研究在全国范围内调查了3000名成年人,通过36000条模拟就诊数据,最终得出的优先级排序打破了所有人的固有认知:AI诊疗性能>医生在场监督>FDA/梅奥诊所认证>本地医院认证。

数据给出了最直观的答案:当AI性能“优于专科医生”时,患者选择该方案的概率提升32.5%;“有医生在场监督”带来的选择概率提升为18.4%;而FDA批准、梅奥诊所认证这类权威背书,带来的提升幅度仅11%左右。

这意味着,患者不再迷信医生的学历、资历,也不再盲从三甲医院、权威机构的光环。他们的信任逻辑,已经彻底转向了“结果导向”——谁能给我更准确、更有效的诊疗结果,我就更愿意相信谁。

打开网易新闻 查看精彩图片

图源:JAMA Network Open

不想让AI变成医疗风险放大器,

这三道防线必须筑牢

一边是AI幻觉制造的虚假医疗信息,正在以空前的速度扩散;一边是患者对医疗AI的信任度越来越高,这两件事撞在一起,就成了悬在所有人头顶的达摩克利斯之剑。

医疗AI的核心逻辑,是基于已有的学术数据、临床资料进行学习和输出,它本身无法分辨一篇论文是严谨的临床研究,还是一场满是破绽的恶作剧。而传统的学术审核体系,又完全跟不上AI的传播速度——一篇假论文上传到预印本平台,只需要几周就能被AI学习吸收,进而扩散到成千上万的诊疗场景中,等到期刊发现问题撤稿时,伤害可能早已发生。

想要从源头阻断虚假医疗信息的传播,避免假病、假诊疗建议泛滥成灾,就必须筑牢三道核心防线。

第一道,是给预印本平台增设基础信息核验门槛。预印本的初衷是加快学术成果的交流效率,但零门槛的上传机制,已经让它成了虚假医学信息的温床,至少要对作者身份、所属机构等基础信息做真实性核验,从源头减少纯捏造内容的传播。

第二道,是给医疗类AI加装学术信息溯源机制。医疗AI输出的诊疗建议、医学知识,必须标注核心信息的来源,严格区分预印本内容与正式发表、经过同行评审的文献,绝不能把未经审核的内容,当成既定医学事实输出给用户和临床医生。

第三道,是强制同行评审环节必须核查引用文献的原文。这场假病闹剧最讽刺的一点,就是一篇正文直接标注“全文都是编造的”的论文,居然能被其他学术文章引用,还通过了同行评审。只有让评审环节真正负起责任,对关键引用文献的真实性做核查,才能堵住虚假文献滚雪球式传播的漏洞。

说到底,医疗AI是提升诊疗效率、普惠优质医疗资源的绝佳辅助,但它绝不能脱离医生的专业监督,更不能脱离严谨的学术审核体系。一旦放弃了这两个底线,再先进的技术,也只会变成医疗风险的放大器。

结语:

技术向前走,

安全底线不能往后退

从一个凭空捏造的假病轻松骗过AI与同行评审,到患者用脚投票把诊疗结果放在信任优先级的第一位,AI正在给整个医疗行业带来一场前所未有的重构。

我们不必妖魔化AI,它能给基层医生提供更全面的诊疗参考,能给患者更细致的就医指引,能让优质医疗资源触达更多人群。但我们也必须清醒地认识到,医疗的核心永远是“人”,是对患者生命健康的绝对责任。

AI可以是医生手里最趁手的手术刀,但绝不能代替医生做临床决策;技术可以跑得很快,但医疗安全的底线,一步都不能往后退。只有把审核的门槛筑牢,把溯源的机制建全,把医生的核心地位守住,我们才能真正享受到AI给医疗带来的红利,而不是为技术的漏洞买单。

来源 | 医学论坛网

编辑 | VOX

版权说明:梅斯医学(MedSci)是国内领先的医学科研与学术服务平台,致力于医疗质量的改进,为临床实践提供智慧、精准的决策支持,让医生与患者受益。欢迎个人转发至朋友圈,谢绝媒体或机构未经授权以任何形式转载至其他平台。