在全民都在热聊大模型、聊颠覆、聊替代的时候,在1月10日的香港高山书院十周年论坛上,一个神仙打架复兴科学的地方,张文宏称“拒绝把AI引入医院病历系统”,张医生说的这些话,听上去多少有点逆风而行的味道。

打开网易新闻 查看精彩图片

但如果你把他后面那几句话拼在一起看,会发现,这是一个一线专家对行业根基的焦虑。

他真正担心的,其实不是AI不够强,而是医生会不会变“笨”。

张文宏自己怎么用AI?他说得很直白,他会让AI先把病例“看一遍”,然后他一眼就知道AI哪里错了。

这话的潜台词是:前提是我本身的专业能力,要强过这个AI。

如果换成一个刚从学校出来的实习医生呢?

打开网易新闻 查看精彩图片

同样一份AI给出的诊断报告,专家一眼看出漏洞,实习医生却会当成标准答案抄在病历里。

这就是他反对把AI直接嵌进病历系统的核心原因。

不是怕AI,而是怕还没长成的大夫,从一开始就学会偷懒,怕医生的成长路径会直接被改写成“我负责抄,AI负责想”。

很多人会反驳:那就把AI当工具啊,又不是让医生全信。

问题就在这里——你凭什么保证一个没有打过基础的人,知道何时该信,何时该怀疑。

AI最大的危险从来不是“不会答”,而是“答得挺像那么回事”。

AI回答本质上仍然是基于搜索和统计,搜索本身并不评判真伪,加上大模型自带的渲染效果,有时候错误反而被包装得更像真理。

如果你脑子里没有一条自己的诊断逻辑链,很容易被这种“像真的却是错的”牵着走。

再看现实应用。

打开网易新闻 查看精彩图片

现在很多地方的影像科已经在用AI读片了,因为这一块确实更适合机器——看到啥就说啥。

肺上有没有结节,有。

多大。

长在哪里。

这些都是高度结构化的信息,训练足够多的数据,AI能帮放射科医生分拣大量常规片子,挑出可疑的交给人类复核。

这一块,AI不是抢饭碗,而是帮医生从机械劳动中解放出来。

但临床科室就完全不是一个难度级别。

一个发烧病人,你得问旅行史、接触史、基础病,还要结合当地流行病学、既往用药史。

很多时候,真正决定诊断方向的,是一句“看起来不像那么简单”的直觉。

这东西怎么喂给模型?

打开网易新闻 查看精彩图片

更现实的问题是:如果AI把一个罕见病看漏了,谁来背锅。

可以类比自动驾驶的L3级。

符合标准的时候,车企背锅;不符合的时候,车主背锅。

那医疗AI呢?

你说你罕见病识别率有多高,你愿意为这条数字签多少法律责任?

现在大部分供应商都留了一句安全垫:“仅供参考,最终诊断以医生判断为准。”

看起来很合理,但这意味着什么?

意味着真出事了,还是医生背锅。

那换个角度问:如果你不肯承担实质责任,这套系统对提高罕见病诊出率究竟有多大价值?

值不值得全国铺开?

这就是很多临床科室迟迟观望的原因。

打开网易新闻 查看精彩图片

张文宏的担心,其实直指一个问题:不能让医生从一开始就沦为技术的盲从者。

技术永远可以出错,所以行业必须保留一群有能力“看出技术错哪儿了”的人。

医学这一行,AI可以错,设备可以坏,人可以补。但如果把最后一层人也训练成只会点按钮的小白,那整个系统在关键时刻就会全线崩塌。

那是不是说明,要把AI挡在医院门外?

也不是。

一味拒绝,当然也有问题。

历史车轮阻挡不了,科技创新是必然趋势。

事实上,一些病症的影像识别上,AI确实已经开始比普通医生更准。

医生本来就依赖各种诊疗设备:CT、核磁、超声,机器给出初步结果,人再去判断。

AI相当于新一代“诊疗设备”,问题不在用不用,而在怎么用。

回到最后那个问题,一个更大的图景是:在哪些领域,专业判断的价值远远高于AI辅助?

可以大致分几类。

打开网易新闻 查看精彩图片

第一类,要求极致准确、又高度复杂的医疗场景。

比如心胸外科、神经外科、牙科精细操作。

术前规划,AI可以给一堆参考路径;术中突然大出血、组织结构和影像不符时,拿什么决策?

靠医生多年积累的手感和现场判断。

电工、水管工、汽车修理师也是类似道理。

车辆同样一个异响,原因千奇百怪,没有统一答案,需要“同病异治”的诊断经验。

AI能做的是推荐最常见的几种可能,但一旦情况超出样本分布,它就懵了。

第二类,高度依赖人际博弈和主观判断的职业。

比如销售。

产品是同一款,价格却不是同一个价。

一斤菜和十斤菜是两个价格,大宗采购还有另一个价格。

科技设备单机有统一报价,打包设计、施工、维保,又是另一套算账方式。

面对不同客户,话术、节奏、让利空间,完全不一样。

这些决策,既没有通用模板,也很难量化成数据,全都系在对人性的把握上。

AI可以给你做话术推荐,但最后拍板,是人。

打开网易新闻 查看精彩图片

第三类,高度非标准化、充满烟火气的服务性工作。

社区工作者、幼儿园老师、志愿者,这些岗位每天遇到的问题,往往连“对”和“错”都很难定义。

一个社区矛盾到底怎么调解,既要合法合规,又要人情世故。

AI可以给出理想化方案,却很难站在“这个阿姨今天刚吵完架、那个大爷脾气本来就冲”的现实场景里做平衡。

第四类,顶尖专家和高层决策岗位。

一个行业顶尖专家的价值,不是会多少知识,而是在巨大的不确定性里拍板的那一下。

AI非常依赖“大样本数据”,而这些岗位面临的问题,恰恰往往是“没有先例”的。

疫情初期用不用某种新药,新的收费模式要不要推向全国,这些问题根本没有足够数据可以训,最后还是要落实到人的价值判断。

从这个角度看,张文宏说的并不是“AI没用”,而是给全体职场人提了个醒。

对结果要求极度准确,还牵涉重大风险的岗位,短期内极难被替代,但更要求你不断精进,因为你要为机器兜底。

对结果可以模糊、只要差不多就行的内容,比如大量流水线式写稿、简单设计、模板化PPT,最容易被AI吃掉。

打开网易新闻 查看精彩图片

如果你每天的工作就是千篇一律、照抄照搬、不思进取,那么不需要AI,别人也可以随时替代你。

真正的安全感,从来不是“不让AI进来”,而是“AI进来以后,你依然有不可替代的判断力”。

未来医学AI一定会越来越强,大模型加上精准训练,有一天很可能能达到一般专科医生的平均水平。

那时,普通医生会被拉到一个更高的起点:常见病由AI提速,疑难杂症、人文沟通、复杂决策,交给真正有能力的人。

所以,当张文宏说“我拒绝把AI引入病历系统”时,他捍卫的不是旧秩序,而是医生的基本功和行业的最后防线。

技术可以帮助我们跑得更快,但方向错了,只会更快冲向悬崖。

在AI汹涌而来的当下,最值得我们警惕的不是机器抢走工作,而是我们主动交出自己的思考权。

不论你做什么工作,记住一句话:如果你只是照着按钮点、照着模板抄,那替代你的未必是AI,可能只是一个工资更便宜的人。

相反,只要你始终在打磨自己的判断力,让AI的每一次回答都变成你思考的起点而不是终点,它终究会成为你的工具,而不是你的主人。