AI在临床医疗模拟中能够自主完成患者的急诊诊疗决策,稳定患者的速度和准确率不输医学生,但缺乏人与人的沟通、甚至过度检查。AI可作为“第二只眼”辅助医生,而非替代医生。关注详情。
阅读文摘
AI能完整阅读X光片、分析病历数据、甚至提出疾病诊断建议。但关键的问题摆在我们所有人面前:AI能否独立完成患者疾病诊疗的全流程?(AI医院仅是宣传效果)。
从患者进门,到问诊、检查、判断、治疗、调整方案,这一整套动态临床决策流程,AI能否胜任?著名的沃顿商学院研究团队给出了一份答案。
研究人员把一个多模态大语言模型(Gemini Pro 2.5)放进了一个真实临床案例模拟系统中。这套AI系统原本是用来训练和考核医学生及执业医生的:屏幕上,一个虚拟病人的状况实时变化,生命体征波动,检查结果延迟返回,不采取行动就会产生相应后果。
AI不是回答一个静态问题(比如“50岁男性胸痛,诊断是什么?”),而是在每一刻自己决定下一步做什么:问诊、打开监护仪、开化验单、做影像检查、给药、升级或完善治疗方案。随着时间的推移,病人可能好转,也可能恶化,需要进一步处理。
研究人员把AI模型的表现与超过1.4万名医学生的模拟数据进行了对比,同时邀请了一位资深急诊医生完成同样的病例。结果令人印象深刻。
在肺炎、中风、心衰和低血糖这四个急诊病例场景中,AI稳定病人的成功率与医学生相当,在某些场景下甚至更高。
而且AI完成整个病例的速度明显快于人类医生。它的诊断逻辑相当合理:早期倾向于做哪些工作,能够最大程度缩小诊断范围,而不是盲目开单检查。值得注意的是,AI的自信程度与准确率高度匹配,当它说“很确定”时,基本正确;当它表示不确定时,也确实容易出错。在这一点上,其他AI系统并不多见,很多大语言模型往往盲目“自信”。
AI也并非没有“短板”,而且这些短板相当明显。第一,它几乎不与患者沟通。在整个模拟过程中,AI不会问“你哪儿不舒服?”“疼了多久?”;或“有没有发烧?”,也不会解释自己在做什么,更不会安慰患者。
第二,它倾向于开出比经验丰富的医生更多的检查。这说明在成本效益判断上,人类专家仍然更优。此外,AI也无法处理那些需要伦理判断、价值权衡或复杂家庭沟通的场景。
因此,研究者明确强调:这项结果不应被解读为支持AI在无监督下独立看病。恰恰相反,AI最适合的角色是作为工作流层面的辅助系统,或者说是医生的“第二双眼”。
在急诊、重症监护室等时间紧迫、资源紧张的环境里,AI可以快速稳定病情、持续监测患者数据、自动标记高风险病例——把医生从繁重的信息处理中解放出来,让医生专注于判断、沟通、决策和整体管理。
从更宏观角度看,这项研究的启示是:评价AI在医疗中的价值,不能只看它能不能答对一道题,而要看它如何在时间压力和不确定性中管理一整段医疗流程。AI已经迈出了关键一步,它能在动态环境中做出连贯的临床决策。
咨询微信:GlobalMD2026
(群规: 实名+机构)
从4月1日开始【亚太长寿医学会】(Asia-Pacific Longevity Medicine Society)正式组建【会员群】。将以最快捷方式分享国际长寿医学、长寿科技、数字健康以及AI驱动健康优化等领域前沿资讯、以及长寿诊所模式迭代更新,同时还包括运动处方、营养处方、功能医学等领域资讯。【会员】也可以咨询个人感兴趣内容的最新进展,我们将竭诚为【会员】提供专业服务。申请加入会员,微信联系:GlobalMD2026;或APACLONGEVITYSOCIETY
关注我们,获取生物医学前沿最新资讯
热门跟贴