医院信息科的人有个共识:AI 产品演示会,科主任听完鼓掌,散会后该干嘛干嘛。
不是技术不行。肺结节识别准确率 95% 以上,眼底筛查比资深医师还快——数据漂亮,但医生就是不用。或者用了,也不信。
这像什么?像家里老人面对智能手机。功能全会,就是不敢点转账。不是学不会,是怕点错。医生的「不敢点」,代价是患者的命。
死结有三层。
第一层,责任归属。
AI 辅助诊断写进病历,出了事谁担责?医院、厂商、还是签字的主治医师?现在没说法。医生选择最安全的做法:参考可以,决策我背,那不如不看。
第二层,黑箱焦虑。
深度学习给出结论,给不出推导过程。医生问「为什么判定恶性」,AI 只能说「概率高」。这相当于学生交卷不写步骤,老师能给分吗?临床思维是医生的核心能力,被一个说不清道理的系统牵着走,专业尊严受不了。
第三层最隐蔽:工作量没减,反而增加。
AI 筛出 100 个疑似结节,医生得逐个复核。系统灵敏度过高,假阳性把医生淹了。本来 20 分钟看完的片子,现在 40 分钟——还得背 AI 漏诊的锅。
解结的方向,厂商们正在试。
有的做「可解释 AI」,把热力图叠在病灶上,告诉你 AI 看的是这块边缘毛刺;有的推「人机共签」,诊断报告分栏呈现,医生修改痕迹留档,责任边界清晰些;还有的直接换场景,从辅助诊断转向质控复盘——不抢你决策权,帮你查漏。
但这些补丁有个前提:医院愿意配合改造流程。而医院的信息化预算,往往优先给能创收的系统。
一位三甲放射科主任跟我说过实话:「AI 公司来谈合作,我先问能不能发论文。能,就试试;不能,再等等。」
医生的信任不是测出来的,是共事出来的。什么时候 AI 的误判被公开讨论、被写进病例讨论记录、成为住院医的教学素材——而不是被厂商压下去——这层冰才开始化。
北京某医院去年做了件事:把 AI 辅助诊断的疑难案例,每月挑出来开复盘会,厂商工程师旁听。三个月后,科室主动使用率从 17% 涨到 61%。
不是因为算法变了。是医生终于觉得,这东西是科室的,不是厂商塞进来的。
热门跟贴