一段时间以来,就人工智能是否应全面引入医疗机构日常诊疗的问题,医疗圈与科学界展开热议。
多位医疗界名人发声,结合自身临床、科研与行业实践,畅谈AI对医疗行业的影响,既有对技术潜力的肯定,也有对应用边界、安全风险的审慎思考,为AI医疗的规范发展提供了重要参考。
2026年2月11日,清华大学医学院院长、知名眼科专家黄天荫及其团队关于医疗人工智能评价的研究发表于《自然·医学》,明确指出当前医疗AI评估多聚焦算法准确率,缺乏基于真实世界患者结局和基层服务能力改善的系统证据。
2月21日,在南方周末刊发的与黄天荫的对话中,他强调,AI并非要替代医生,而是“能力放大器”,其应用重点应放在基层医疗领域。
黄天荫认为,人口老龄化加剧、城乡医疗资源不均衡、全科医生短缺等现实问题,倒逼医疗行业引入新技术手段。他带领团队开展多项实践,包括在医学教育中增设AI课程培养复合型人才,通过“紫荆AI医院”系统在京桂8家医院开展试点,在社区推行AI预问诊分诊、在眼科开展疾病筛查辅助等。
对于AI应用的担忧,黄天荫重点关注医疗安全性,认为AI可能给出错误信息或误导性结论,但现行监管要求医生对诊疗决策签字背书,可保障患者安全。他同时指出,AI医疗目前存在资源分布不均、复合型人才短缺、数据标准不统一等短板,需政府、医疗体系与技术机构协同发力,通过开发轻量化应用、完善数据共享机制,推动AI真正下沉基层,而非扩大医疗差距。
与黄天荫的乐观实践相比,国家传染病医学中心主任张文宏的态度更为审慎,明确反对将AI系统地引入医院日常诊疗流程与病历系统。在2026年1月香港举办的高山书院十周年论坛上,张文宏结合自身经验发声,他表示自己虽会让AI对病例进行初步分析,但总能凭借专业经验快速识别并纠正其中的错误,这也凸显了临床经验的不可替代性。
张文宏的担忧主要集中在三个方面:一是AI诊断可靠性不足,当前技术仍处于发展阶段,基于既往数据的判断难以应对复杂病情的动态变化,甚至可能编造医学信息,若医生盲目采信会危及患者安全;二是对年轻医生培养的负面影响,若实习生过早依赖AI获取结论,会导致临床思维训练不足,未来难以具备鉴别AI诊断错误、处理复杂疑难病症的能力;三是医疗的人文属性不可替代,AI只能提供标准化建议,而医生需结合患者年龄、基础疾病、家庭情况等个体化因素制定方案,这种共情与综合判断是算法无法复制的。
不过,张文宏并未否定AI的辅助价值,认为其在文献检索、影像初筛、病历整理等重复性工作中可提升效率,关键是划定“助手”与“替代者”的清晰边界。
梅斯医学创始人张发宝则提出了更为温和的“引导式应用”思路,强调“AI不是替代思考,而是引爆思考”。他认为,张文宏对年轻医生依赖AI的担忧合理,但完全禁止AI应用不切实际,如同当年家长禁止电视、游戏却未能阻止其普及一样,AI已成为医疗行业的“新物种”,核心在于引导医生正确使用。
张发宝将医生使用AI的方式分为三重境界:第一重是“懒人式”使用,将AI当作答案生成器,直接复制执行结论,会导致临床能力退化;第二重是“学徒式”使用,以AI为陪练对象,借助其知识库拓宽临床思维,探究诊疗逻辑而非只求答案,这是年轻医生应追求的境界;第三重是“分身式”使用,医生与AI形成共生关系,让AI成为处理复杂数据、辅助高难度决策的“数字分身”,这是未来的理想模式。
此外,中国工程院院士钟南山在2026大湾区医疗健康创新大会上也发声支持AI医疗,他表示,推动智慧医疗不是为了炫技或替代医生,而是为了让医生回归“以人为本”的初心,解决老百姓看病贵、看病难的实际问题。钟南山指出,AI等数字技术从疫情时期的远程会诊、智能流调,发展到如今的慢病管理、早筛预警,已突破优质医疗资源的地域限制,惠及更多基层群众,未来应让技术更好地服务于医疗本质。
综合来看,AI医疗的核心价值在于辅助而非替代已成共识, 2026年初的这场讨论,相信会是AI医疗的发展历史上一个里程碑式的节点。
撰文 | 梅斯医学综合整理
编辑 | 木白
版权说明:梅斯医学(MedSci)是国内领先的医学科研与学术服务平台,致力于医疗质量的改进,为临床实践提供智慧、精准的决策支持,让医生与患者受益。欢迎个人转发至朋友圈,谢绝媒体或机构未经授权以任何形式转载至其他平台。
热门跟贴