打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
这种担忧并非空穴来风,据健康报2025年12月报道,某三甲医院曾开展AI辅助病历书写试点。一名实习医生在书写复杂肺部感染病例时,直接沿用AI生成的诊断描述,未发现其中遗漏了关键的并发症提示。幸好上级医生审核时及时纠正,才避免误诊风险。
打开网易新闻 查看精彩图片
当前AI技术仍存在幻觉问题,这在医疗领域可能引发严重后果。新手医生由于临床经验不足,往往难以鉴别AI诊断的正误。若形成路径依赖,放弃主体思考,就可能陷入“反向规训”的困境。
打开网易新闻 查看精彩图片
北京某医院内科主任医师透露,科室曾遇到过类似情况。一名工作两年的年轻医生,习惯用AI生成病历并辅助诊断。一次接诊罕见病患者时,AI给出了常见病症的诊断建议,年轻医生未加甄别便采纳,导致诊疗方向偏差。后续经过科室专家会诊,才修正诊断方案。
医疗环境的压力也让AI的过度使用存在隐患。医者救死扶伤需与时间赛跑,若AI被系统引入病例实务,可能在求快求速中异变为决策主体。这种情况下,医生的主导判断权会被削弱,医疗质量难以保障。
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
上海某三甲医院的实践提供了参考。该院将AI用于病历的初步整理和信息提取,医生在此基础上进行补充完善和诊断判断。这种模式既提升了效率,又保留了医生的主导权。
打开网易新闻 查看精彩图片
数据显示,试点科室的病历书写效率提升30%,诊断准确率未出现下降。
人工思考与成长都来自摩擦褶皱。不历经真实病例的锤炼,医者难以从新手成长为独当一面的专家。人类主体性最终决定了AI使用关系的边界与走向,这是医疗行业智能化进程中必须坚守的底线。
打开网易新闻 查看精彩图片
热门跟贴