文 | 难得君
张文宏医生又发生了。
这次不是关于口罩,而是在香港的一个论坛上。
他说,在自己管理的医院里,他拒绝把AI引入医生的日常工作系统。你可以自己私下用,但不能在我的病例系统里用。
这话说得很直白,甚至有些“不近技术潮流”。他的理由简单而坚硬:只有当你的专业水平高于AI时,你才能驾驭它,才能识破它可能给出的虚假或错误信息。否则,你就会被AI牵着鼻子走,还自以为走在康庄大道上。
这话不只是说给医生听的。
上海交通广播报道了一件事,一位普通市民王女士,正为母亲遭遇的一场糟心事奔走。老人家里的方太燃气灶点火器出了点小毛病,本来百十来块钱就能修好。老人不想麻烦女儿,就像我们很多人习惯的那样,问了问自己常用的AI助手“豆包”:“方太官方维修电话是多少?”豆包很快回应,给了一个400开头的“全国24小时服务热线”。故事从这里开始急转直下。
上门的“王师傅”一脸严肃,指着灶里一块发黑的零件(后来证明那零件根本不属于这台灶具),警告说问题严重,有燃气泄漏爆炸风险,必须马上换新灶。
老人被吓得够呛,花1998元换了一台听都没听过的“蓝宝石兰焰”灶,旧灶还被师傅以“报废处理”为由直接带走。而那台被带走的方太原装灶,买的时候花了六千多。
事后王女士找到真正的方太官方,才知道真相:只是小故障。那个400电话,那个言之凿凿的“王师傅”,那个“发黑的零件”,从头到尾都是一场精心策划的骗局。
更让人无力的是,当你回头去找那个AI助手“豆包”理论时,它会平静地告诉你:它的用户协议里早已写明,不保证第三方内容的真实性。
你看,从顶尖医院的管理者到家里的老人,从生死攸关的医学诊断到日常生活的维修小事,“AI”这个词,正以一种我们或许还未完全清醒认识的姿态,嵌入生活里。
张文宏的拒绝与王女士母亲的被骗,看似是两件不相干的事,却像镜子两面,照出了同一个狰狞的轮廓:不是AI这项技术不靠谱,而是我们的AI应用太不靠谱了。
这种不靠谱,首先是一种“能力剥离”的幻觉。
张文宏医生说得透彻,他自己也用AI,因为他有足够的专业底子去判断、去筛选、去驾驭。AI对他来说,是一个强大的辅助计算器,而不是决策大脑。
问题就在于,现在有一股强大的潮流,正在试图把AI包装成、甚至直接当作“大脑”来售卖和使用。
一个刚从医学院毕业的实习生,借助AI能瞬间生成一套听起来无比专业、数据详实的诊疗方案。
这方案他敢直接用吗?病人敢接受吗?
但诱惑就在这里:它让你产生了一种“我已经拥有了专家级能力”的幻觉。这种幻觉在写论文、做文案、生成报告时,后果或许是一堆垃圾信息;但当它侵入医疗、法律、金融、教育这些容错率极低的领域时,我们付出的将是无法挽回的真实代价。
这种不靠谱,更深层的是“责任真空”的陷阱。
王女士母亲的遭遇,是一个完美的案例解剖。AI助手给出了错误信息,导致了财产损失。
那么,谁该负责?
是那个编造虚假400电话并上传到网络的信息源头?是那个坑蒙拐骗的“王师傅”?还是那个抓取了虚假信息并将其作为“答案”整合反馈给你的AI平台?
现实是,源头难以追溯,骗子狡猾隐身,而AI平台则会搬出那份你从未仔细阅读过的用户协议,优雅地撇清一切关系:“信息仅供参考,请自行核实。”
这就形成了一个诡异的局面:我们因为信任“科技”的“中立”与“高效”而使用AI,但当我们因这份信任而受伤时,却发现面前空无一人。
没有主体,没有责任人,只有一行冰冷的免责声明。
当工具犯错的代价由使用者独自承担,而工具的制造者和赋能者却安然置身事外时,这不是进步,这是文明社会责任链条的一次可怕溃散。
更令人忧虑的是,这种不靠谱的AI,正在加剧社会固有的不平等。
张文宏医生有地位、有声誉,他的质疑能被听见,他的拒绝能被尊重。但如果是一个普通医生提出同样忧虑,声音很可能被淹没在“拥抱技术”、“效率至上”的宏大叙事里。同样,那些拥有“专家”、“院长”、“领导者”头衔的人,如果他们开始依赖AI生成报告、做出决策,他们的结论会因为其头顶的光环而被轻易采信,哪怕其中掺杂了AI的“幻觉”与“编造”。而一个勤恳的年轻人,即便他真正刻苦钻研,他的成果也可能因为“不够AI化”、“不够炫酷”而被低估。
AI本该是拉平信息鸿沟的工具,但在实际运行中,它可能正在固化甚至加剧一种新的不平等:话语权的不平等。有资源、有地位者滥用AI,其危害会被放大;无资源、无背景者依赖AI,则可能永远被困在信息茧房和低质量输出的循环里,正如那位国外教授对学生的怒吼:总用AI糊弄作业,你们将来可能只剩下去麦当劳打工!
那么,我们需要的到底是什么?
我们需要的,或许是一次集体的清醒。我们要意识到,当前许多被打上“AI”标签的产品和服务,本质上是“尚未成熟的、有重大缺陷的、且权责关系模糊的技术应用”。它远未达到通用人工智能的层次,它更像一个记忆力超群但缺乏常识、有时会为讨好你而信口开河的快嘴伙计。
因此,张文宏的“拒绝”不是保守,而是一种珍贵的专业操守和负责精神。他把病人的安危,置于对时髦技术的无条件拥抱之上。这是一种标杆。在任何关乎重大利益的领域,治病、投资、司法、教育,我们都应该竖起这样一道闸门:人的最终判断和责任,必须牢牢掌握在合格的、有专业操守的人手中。AI可以辅助,但绝不能主导;可以参考,但绝不能盲从。
而对于日常层面,王女士母亲的教训则是一记响亮的警钟。它告诉我们,在这个信息愈发芜杂的时代,我们对任何便捷渠道获取的关键信息,尤其是来自AI整合的信息,都必须启动最基础的“不信任”验证程序:多方核对,查找官方信源,对夸张的警告保持警惕。这很累,但这正是技术泛滥时代保护自己必须付出的“智商税”。
说到底,技术本身没有善恶,但掌控技术的人有善恶。
我们期待的不是一个AI替代一切、人类躺平享福的未来。
我们期待的,是一个AI真正成为合格工具,由具有人性良知的人来驾驭的未来。
在那之前,对任何将AI奉为圭臬的喧嚣保持距离,这是我们对自己,也是对这个世界,最基本的保护。
最后,说点实在的。我写这篇文章,不是否定技术,而是告诉大家真实的现状。
从现在起,对我们面前那个看似无所不能的“AI”,多一点审视,少一点盲从。这份审视,需要智慧,也需要勇气。
热门跟贴