2026年开年,科技狂人埃隆·马斯克又一次扔下“深水炸弹”。在与奇点大学创始人彼得·戴曼迪斯长达三小时的访谈中,他预言:三年内,特斯拉的人形机器人“擎天柱”(Optimus)将在外科手术技能上超越最顶尖的人类医生;四年后,完胜任何人类外科医生;五年后,完全碾压

这番言论迅速在全球医疗行业引发“轩然大波”。在校的医学硕博“破防”了,有人自嘲“这学白上了”;顶级专家则直接开怼:“马斯克根本不懂医学!”

打开网易新闻 查看精彩图片

马斯克的“疯狂预言”:外科医生将彻底失业

2026年1月,马斯克在接受播客专访时,将矛头直指外科医生的“饭碗”。面对拥有哈佛医学院医学博士学位的主持人,马斯克语出惊人。

“要成为优秀的医生需要极长时间,而医学知识不断更新,人类难以全面跟进。” 马斯克认为,医生的时间有限,还会犯错,而机器人没有疲劳、没有情绪波动、没有生理极限。

他描绘了一幅极具“赛博朋克”色彩的医疗未来图景:“很可能有数量超过地球上外科医生总数的‘擎天柱’们能完成卓越的外科手术。每个人都将获得比现任总统现在所享受的医疗服务还要好。”

当主持人追问“你的意思是别去读医学院?”时,马斯克给出了斩钉截铁的回答:“是的,毫无意义。”

他甚至以LASIK激光眼科手术为例反问:“你会愿意让眼科医生手持激光吗?哪怕激光笔稍有颤动……我不愿让世界上最技艺娴熟、手稳如磐的眼科医生亲手将激光射入我的眼睛。”

“三重指数增长”:马斯克的技术逻辑

马斯克并非凭空放炮。他的核心逻辑是:机器人外科医生的发展速度,是三个“指数级增长”的相乘叠加

第一,人工智能软件能力的指数级增长。 从海量手术视频中学习,精准识别病灶边界,快速匹配全球案例库中的最优解决方案。

第二,人工智能芯片性能的指数级增长。 为手术的实时计算和精准操作提供硬件支撑。

第三,电气与机械精密程度的指数级增长。 机械臂可实现超越人类生理极限的稳定精度,完全消除人手难以避免的生理性震颤。

马斯克还强调了一个递归效应:“擎天柱”创造“擎天柱”——一个机器人学会了切除肿瘤,全球所有机器人瞬间同步掌握。这是一种递归且可放大的“三重指数级增长”。

他旗下的脑机接口公司Neuralink已经展示了相关技术实力:手术机器人将单根电极的植入时间从17秒缩短到1.5秒,速度和精确度远超传统人工操作。

打开网易新闻 查看精彩图片

顶级专家回怼:短期内不可能,他不懂医学

面对马斯克的“豪言壮语”,站在临床一线的中国顶级专家们纷纷泼下冷水。

中国科学院院士、复旦大学附属中山医院心内科主任葛均波教授直言:“我认为人工智能一定会成为医生的助手,但是现在我们还无法确定手术机器人能不能做得比人类更好?但是说机器人会取代医生,短期内还看不到这个苗头。”

一位国内神经外科排名居前的顶级医院主任医师指出,即便是已经投入商业化且应用成熟的手术机器人,也只能实现“遥控”手术机械臂,“从现在的‘遥控’跨越到真正所谓的‘自动驾驶’还很遥远,毕竟全自动驾驶汽车时代也还未到来。”

从事智能介入手术器械研发的医疗技术公司创始人更是一针见血:“马斯克的话不必全信……他根本缺乏对医学行业的了解。工程解决不了所有问题。”

专家的核心观点是:机器人未来可能会替代外科医生的“操作”部分,但医生本身不会消失。“医生的社会价值是关注人的健康并提出解决方案,这件事还是要由医生结合AI以及现代工具实施才能做好。”

打开网易新闻 查看精彩图片

“医闹”这一关,机器人怎么过?

如果说专家的质疑停留在技术层面,那么来自中国临床一线的外科医生,则抛出了一个更现实、更尖锐的问题:在中国,过不了“医闹”这一关,什么都是白瞎

一位资深外科医生在“温柔医刀”公众号上撰文直言,马斯克是典型的“理工男技术乐观主义思维”,对临床医学的理解还停留在“手术=机械操作”的单纯层面。

在中国当外科医生,技术好只是基本条件。你还需要是精明的“账房先生”(懂得医保成本核算)、精准的“政策解读师”(烂熟于心各种医保政策)、严谨的“质量控制员”(应对无数质控指标)。

而所有这一切之上,最沉重、最难跨越的一关,是“医闹”。

文章设想了一个场景:五年后,全自主手术机器人做手术出了问题,出现了并发症。家属来了,要找主刀医生谈——

“抱歉,主刀医生是机器人。”
“那我们要和负责的医生谈!”
“机器人是按照标准程序操作的,没有医生‘负责’。”
“那谁给我们解释为什么会出现并发症?”
“这是算法的决策过程,属于商业机密……”

“毫无疑问,这样的对话最后注定会演变成一场灾难。”

在中国,医疗纠纷的解决往往依赖于“找对人”——一个有血有肉、可以被问责的主体。当这个主体变成一行行代码,家属的愤怒将无处安放。任何理性的医院管理者,在面对“第一场纠纷就可能导致医院停摆三天”的风险时,或许都会选择保守。

打开网易新闻 查看精彩图片

张文宏的警告:AI会让医生变蠢

除了技术与伦理的争议,还有专家看到了更深层的风险——AI可能让医生产生依赖,进而“变蠢”

国家传染病医学中心(上海)主任张文宏教授旗帜鲜明地表示,华山医院拒绝将AI引入医院病历系统。理由直指核心:“会让医生变蠢。”

张文宏并非否定AI的价值,他曾在多个场合肯定AI在流行病预测、药物研发等领域的潜力。但他担忧的是,当AI开始“智能推荐”诊断方案、“自动填充”病程记录时,医生可能丧失独立思考的能力。

对于年轻医生而言,这一风险尤为突出。如果住院医师面对复杂病例时不再反复推敲病理机制,而是习惯性点击AI弹出的“诊断建议”,他们的临床推理能力可能退化。

这一观点与2026年1月《英国精神医学杂志》的一篇研究不谋而合:过度依赖AI可能会降低临床推理和决策的质量,对医患沟通产生负面影响,并增加医学领域“去技能化”风险。

伦理困境:当AI犯错,谁坐牢?

另一个绕不开的问题是法律责任。2025年发表在《npj Digital Medicine》的一项研究揭示,AI在处理复杂医学伦理场景时存在严重缺陷,错误率高达76%-96%,机械套用训练数据中的高概率答案,完全无法应对多变的临床情境。

“如果AI诊断错误导致医疗事故,责任该由医生、医院还是技术提供商承担?”

目前,全球范围内都缺乏明确的法律规范。正如张文宏教授所说:“签字那一栏,署的是医生的名字,不是模型的编号。患者打官司不会找AI,只会找你我。”

医疗质量底线的底线,只能由人来守护。

锐评:取代的不是医生,而是“不会用AI的医生”

马斯克的话,听起来像科幻小说,但回看他几年前对电动车和火箭回收的“疯言疯语”,如今都在一点点变成现实。

或许,问题不在于“五年后机器人能不能取代外科医生”,而在于:五年后,什么样的医生会被取代?

一个只会重复简单操作的“手术匠”可能会被淘汰;但拥有丰富临床智慧、卓越判断力和深厚人文素养的“医学大师”,价值将前所未有地被凸显。

正如钟南山院士所言:“推动智慧医疗不是为了取代医生,而是为了医生更好回归到‘以人为本’的初心。”

技术可以解决“怎么做”的问题,但“为谁做”“为何做”的答案,永远掌握在人类手中。那些在缝合时心中怀揣的对生命的敬畏与悲悯,是任何算法之光都无法完全照亮的地方。

那里,需要另一支叫做“同理心”的蜡烛,由人类亲手点亮。