作者:AzeemAzhar、NitaFarahany、EricTopol等 2026年2月26日
两周前,我在财经新闻上读到一篇关于一种叫做“离散事件”的文章。我当时没完全理解,所以在开车出门前,我让我的OpenClaw智能体R Mini Arnold给我解释一下,并帮我找到相关的数据。
等我到的时候,智能体已经调出了三十年的市场数据,并指出了我最近思考中一些我之前没注意到的矛盾之处。我当场调整了我的投资组合。这个决定是我自己做的,但背后的思考过程……却变得模糊不清。到底谁说了算——是我还是我的智能体?
我想静下心来思考这个问题,而且不想独自一人。于是我组织了一场对话,参与者包括:NitaFarahany,她著有《大脑之战》(TheBattleforYourBrain)一书,曾就人类思维伦理问题向奥巴马总统提供咨询;Eric Topol,他是当今被引用次数最多的医学研究人员之一,对AI在医学领域的应用有着前沿的见解;RohitKrishnan,他是一位工程师、经济学家,曾任对冲基金经理,如今致力于构建人工智能平台;以及《大西洋月刊》首席执行官NicholasThompson,他主持了这场对话。
以下是文字稿(为了清晰流畅,略作编辑)。
人性的边界在哪里?AI的边界又在哪里?
Nick Thompson:Azeem,你今年已经编写了数千行代理代码,自圣诞节以来还开发了多个应用程序。但你讲述的驾车经历听起来像是你掌控着一切——你提出问题,得到答案,做出决策。给我讲讲那种模糊感真正出现的情况。
Azeem Azhar:这种模糊性比问题本身更微妙。我的智能体——我当时用的是OpenClaw——经常会说:“在本周我们之前的对话中,你提到了X,但这似乎与你现在提出的问题相矛盾。”我之前一直在和它讨论AI的瓶颈以及如何加码AI相关的投资。然后我问到了下行风险。它发现了其中的矛盾:一方面我担心崩盘,另一方面我又在考虑增加投资。它提醒了我这一点。我们进行了一番对话,它重新构建了我提出的问题。
Nita Farahany:这触及了一个关于自主行动意味着什么的根本问题。你的行为是符合自身意愿的,还是受他人意愿的驱使?如今,我们所做的很多事情都很少是出于自身意愿。
这学期我在杜克大学教一门关于心理隐私和人工智能法律政策高级议题的课。我对学生们进行了一次注意力测试。他们记录了三天内拿起电子设备的次数以及注意力都花在了哪些事情上。第一天:记录下来,不要改变你的行为。第二天:禁止使用任何算法引导你的应用程序——这意味着基本上什么都不允许。第三天:想做什么就做什么,再次记录。第二天的情况令人瞩目。有人读了一本书。他们想不起来上次读书是什么时候了。这些可是学生啊!有人完成了一个他们之前一直认为自己没时间做的拼图。而第三天呢?比第一天更糟。他们又完全沉迷其中了。
Azeem在掌控吗?他的行为在某种程度上是他掌控一切的,他指示智能体去调查某个具体问题。但事实上,他会对智能体提供的信息做出反应,不断地陷入这种通知与响应的循环中,一边听从智能体的指示,一边思考他们的一举一动,这三者之间存在着深刻的关联。Azeem和他的工具之间的界限已经模糊不清。它们已经成为他的一部分。
Nick:而且它极易被黑客攻击。他就是基于这个来控制他的投资组合。如果我是个精明的对冲基金经理,我会想办法入侵OpenClaw,把他的投资引导到我的基金里。
Nita:Azeem把这个问题交给AI工具处理,这本身就是一个更根本的问题。这比有人故意操纵他的投资组合更微妙、更普遍、更具普适性。
Rohit Krishnan令我惊讶的是,尽管这些工具并不安全,但负面事件的数量却出奇地少。造成伤害的能力与造福人类的能力都在增强,然而,不良事件却仍然很少发生。从对冲基金的角度来看:你会把资源投入到哪里?攻击OpenClaw比把同样的精力投入到其他方面更能带来收益吗?答案似乎总是否定的。所以我的OpenClaw会与我的邮箱通信,偶尔也会回复邮件。尽管我知道存在注入攻击,但我对这种安全隐患还算可以接受。
为什么给医生配备AI后,他们的水平反而会下降?
Nick:Eric,Rohit的理论框架——即实际危害小于感知到的危险——在医学领域是否成立?
Eric Topol:我认为我们目前还不得而知。现在有好几项研究比较了单独使用AI和AI与医生结合使用在各种临床表现上的表现。结果显示,AI的表现优于医生与AI结合。这出乎意料。我们原本以为一切都应该是混合模式。表现不佳的医生更容易接受AI的建议,而专家则会拒绝AI的合理建议。如果再加上智能辅助,情况可能更是如此。我们仍然不清楚原因。是因为医生存在自动化偏见吗?还是因为他们缺乏使用AI的经验?目前情况还很模糊。医疗领域不像其他许多领域那样快速采用AI,因为临床决策更加复杂和微妙。
Nick:这和我之前听你说过的话相悖,Azeem——你说人类如果能很好地运用AI,应该比AI本身强大得多。
Azeem:Eric描述的现象我们在知识型工作领域都观察到过。能力低于平均水平的人在使用AI后会有所进步。而能力顶尖的人反而会退步,因为他们会忽略AI的建议。但我很好奇,数据中是否隐藏着一条U型曲线。低于平均水平的人:能力会提升。顶尖的四分之一的人:会过度思考。真正杰出的人:会完全掌控机器。看看Andrej Karpathy,一位杰出的深度学习工程师,他的软件开发能力远超我们所有人。他把大量的工作交给了AI系统。他是这方面的专家,但他的反馈是:他完成了更多的工作,并且把极限推向了更高的层次。
Nita:让我暂时扮演一下哲学家的角色。我们究竟想衡量什么?在Eric的领域,这一点比较明确:诊断是否正确?病人是否病情好转?但在其他领域,我们无法进行公平的比较。以教育为例。如果衡量文章的质量是提高还是下降,AI确实能提升文章质量。但如果衡量学习成果,结果就截然相反了。人反而变得更糟,而文章质量却提高了。那么,人类究竟是因为AI生成的更精良的文章而受益,还是因为写文章的人没有从中学习而变得更糟呢?
Nick:所以解决方案是让AI做出影响极其重大的决定——比如手术——但让人类参与到发展性工作中,比如写论文?
Nita:要从长远角度来思考这个问题。今天,我们是否应该在生死攸关的决策中使用AI?答案是肯定的。但实际应用起来却并非如此:现在,医生们不再凭直觉判断是否需要手术。他们无法解读代码,因为他们看不懂——他们只是盲目地尝试AI的各种输出,而不是进行批判性的评估。随着时间的推移,我们的情况会是更好还是更糟?我担心,从长远来看,我们的处境会比短期内糟糕得多。
Nick:所以你的意思是,在某些特定情况下,AI的手术成功率会更高,我们也知道这一点,但有些病人会因为人类手术失误而死亡——但你仍然更喜欢那种世界,因为至少人类还能保持胜任能力?
Nita:Nick,那是人为构建的概念。真正的问题在于,我们应该投资什么,才能让人们长期保持我所说的“能力要素”。我们如何才能做到两全其美?既要利用AI来做出当下至关重要的决策,又要构建相应的系统,使人类在未来能够继续应对这些决策。这才是没人问的问题。
Rohit:或许需要考虑的一点是,这些医生是否擅长与AI合作。过去三四年里,我做出的每一个重要决定都是借助AI做出的。有时我同意,有时我不同意。但随着时间的推移,你会逐渐形成一种感觉,判断它何时准确,何时不准确。这些研究并非像《危险边缘》那样,由专家给出一个答案,AI给出另一个答案,然后由你选择其中一个。现实世界中存在时间限制、制衡机制,以及多人参与的决策过程。这些背景信息在论文中是无法体现的。
Nick:Eric,所以也许问题不在于根本原因——只是目前医生们还不了解如何使用AI。一旦我们学会了,一切就都好了?
Eric:Nick,我们希望如此。医学界最倾向于这种解释。
我们绝不应该将哪个领域交给AI?
Eric:我们刚刚证实的另一个医学问题是技能退化。现在有一项针对肠胃科医生的研究,他们让AI来寻找息肉。随着时间的推移,当关掉AI后,他们自己发现息肉的能力就下降了。此外,还有一些年轻医生,他们一开始就缺乏相关技能。人们期待的混合模式——人机结合,优于任何单一模式——最终会胜出吗?我们无法确定。
Azeem:技能退化是真实存在的。Nita和Eric指出的正是教育中的一个缺口。在现阶段,我们需要自己摸索出一套维持技能的教学方法。我经常用这支钢笔写作,关掉电脑。昨天我和一位同事进行了一次研讨,我们几个小时都静静地在纸上讨论一个问题,没有手机,没有电脑。我们团队经常这样做。也许这样做不对。但这是我们对抗去技能化的一种姿态——这种松散的氛围会让你越来越远离自己的心智能力。
Nick:但你这样做难道不是适得其反吗?你一直在写如何让AI为你写作,试图让它成为更优秀的文风编辑。而写作本身就是一种思考,如果你降低了写作能力,你的思考能力也就退化了。
Nita:我要反驳这种说法。“写作就是思考”这种说法我听过太多遍了,我觉得纯属胡扯。我写作的时候,其实会先做个演讲。我觉得公开演讲比写作更能激发我的思考。我思考的是,在主题演讲中,我该如何讲述这个故事?等我讲过几次,和听众互动过几次之后,我才能把它提炼成文字。我的思考主要不是通过写作实现的。问题在于,如果我们不认识到每个人的创造力运作方式都不同——对Azeem来说可能是钢笔,对其他人来说可能是口头表达,或者绘画——我们最终会制定出一些一刀切的规则,反而忽略了重点。一旦你找到了自己创造力的核心所在,你就要保护它,不让它被他人利用。
Nick:所以你的建议是:找出你最擅长思考的地方,然后千万别让AI靠近那里。
Nita:没错。要保留让你能够灵活应对各种新情况的核心能力。不要把所有创造性思维都外包出去。我发的邮件?很可能是AI写的。讲座总结?通常也是AI写的。但主题演讲或者新颖的想法,那才是我思考的源泉。我会先用口头形式表达出来,然后再提炼成文字。也许我会让AI做我的文字编辑。但思考本身会一直留在我脑海里。
Rohit:我的看法是,我拥有了更多可支配的能力,自然而然地,我会把时间花在真正想做的事情上。这是内生的,我最终会减少在不太关心的事情上的时间,而把更多时间花在更关心的事情上。而且这种变化是持续的。我今天坚持的事情与一年前或十年前不同,因为我们会随着时间而改变。一部分可能是某种特定类型的写作,一部分可能是某种特定类型的研究或公开演讲——每个人的情况都不一样。所以我不再纠结于“我应该对AI保留什么?”,而是更多地思考:既然有了这个智能体,我们可以一起做什么?如果我确信它有效,我就会把更多工作交给它。这和拥有一个非常优秀的私人助理的运作方式是一样的——一旦你了解了他们的优势,你就会说“你负责这个,我负责那个”。
Azeem:我有更多的时间投入到Nita所说的“生成性构成能力”领域。我花更多的时间写作,也花更多的时间阅读。我写很多文章都是先手写,然后朗读出来,再转录。这让我想起Eric几年前跟我介绍过的一个观点:这些工具可以帮助医生腾出时间,让他们成为更好的医生。到了2026年,我比四年前投入了更多精力进行深入思考,那时我还在疲于应付收件箱和谷歌搜索。
Nick:Azeem,你好像一天中的一部分时间生活在2100年,一部分时间生活在1450年。听起来真美妙。
Eric:我同意,这完全是个人选择。如果我自己写论文或博客,我觉得用AI代写就是一种作弊。如果不是我自己的作品,就不应该分享给其他人。也许有一天我会和Azeem一起进入2100年。但情况正在改变,它是动态的。你会把越来越多让生活更自动化、更实用的事情外包出去。在医学中,夺回时间可能是最大的目标,因为医生的时间被挤压得太厉害了。如果你能摆脱数据文员的职能,摆脱那些琐碎的任务,你就能成为一个更好的医生。医患关系也能得到修复。
Azeem:不过,我遇到的难题是,我仍然在高速运转。而真正伟大的思考源于专注、观察和反复推敲。我们很多例子都有时间限制——现在就要看病人,周五之前必须完成代码。但真正伟大的思考历来都离不开细致的思考和自我反思。如果我有十天不受干扰的时间,我能进行更高质量的思考吗?
Nita:其实也可以用AI来做到这一点。我偶然看到一篇博客文章,里面介绍了一种叫做“土豆提示”的方法。我把它应用到了Claude身上。这个想法是,每当我输入“土豆”这个词,后面跟着一个论点时,AI就会告诉我三个论点可能失败的地方、两个反驳论点,以及我忽略的一个盲点。而且它必须是尖锐的,不带任何客套。
头几次,我真想找个地洞钻进去哭一场。这感觉太糟糕了。但它也让我的思维变得更加敏锐。每次我抛出一个论点,心想“Nita,你这见解真绝妙”,这个“土豆”提示就会立刻审视它。我仍然会和朋友们交流想法。但这种即时、实时的、充满敌意的反馈,让AI能够挑战你,而不是让你把事情推卸给你。
学校的作用是什么?
Rohit:总的来说,我不认为教育能让我们摆脱困境。教育体系的设立初衷是为了完成一些相当具体的事情。最擅长学习这些工具的孩子,是那些只是去玩它们的人。互联网是这样,移动设备是这样,编程也是这样。
AI加剧了这个问题,因为它太容易使用了。我八岁的儿子偶然发现Canva有AI功能——我之前都不知道。他一直在用它制作关于恐龙的小网站。没人教过他。那只是个文本框;他会打字。我们需要更多奇思妙想和玩耍,而不是结构化的课程。
Nita:我们的教育体系过于注重产出,而忽略了核心能力。德国有一所学校试行了正念和呼吸练习项目。美国也有一项名为“学习呼吸”的全国性项目。这些项目旨在培养孩子的内感受能力:身体感知、扎根感和直觉发展。研究表明,这些项目对数学成绩有直接影响,因为学会感知自己的身体能够发展认知能力,而认知能力是思考的基础。工具是之后才有的。教育应该培养的是思考的能力。
Azeem:我要做那个坚定的乐观主义者。我们在过去三四十年里,从未持续地尝试过这一点。在专业服务领域,我们最终培养出一些律师,他们的客户沟通能力糟糕透顶;也出现了一些医生,他们的待人接物态度时而热情,时而令人恐惧——所有这些都是因为我们忽视了这些技能。或许现在我们不得不重视起来了。这与其说是一个棘手的问题,不如说是一个机遇。
Eric:我们培养医学生的方式绝对是错误的。他们被选拔的标准是考试成绩——而AI在这方面已经做得更好了——以及平均绩点,而不是人际沟通能力。美国160所医学院中,没有一所将AI纳入核心课程。它几乎就像不存在一样。无论是选拔方式还是教育方式,我们甚至都没有意识到,这正在改变医学。
Azeem:那么,我们在鉴别诊断中追求高可靠性的程度究竟有多高呢?鉴别诊断实际上是一种机械的、算法式的过程。机器在这方面比人做得更好。过去我们需要人类来完成这项工作,是因为相关的知识匮乏,难以从人类的认知中获取。或许现在这项工作可以外包了,我们可以着手发展另一部分——即对患者预后的影响:构成性意识,即对“人”的具身理解。
Eric:没错。诊断准确率将是AI在医学领域最伟大的贡献之一。我们已经有了很好的迹象表明这一点。现在的问题是如何正确地部署它。
如何区分真正的思考和听起来像在思考的AI?
Nick:我们都持谨慎乐观的态度。但AI即将变得更加强大。你认为什么发展趋势会决定我们明年的发展方向是更好还是更糟?
Nita:我注意到Eric说过的一点——他觉得如果把AI写出来的东西发布出去,就像是在作弊。这就是我一直在关注的转折点。我们一直在讨论自我:构建自我,维护自我。但我们身处一个信息生态系统,一个我们所有人都在汲取的人类知识库。信息越是合成,人类的切身感受就越少。人们正在追踪互联网上有多少内容是由AI生成的。我们不知道这会对儿童的认知发展,对我们集体的思考能力造成什么影响。
Azeem:在原子武器时代,曾有那么一个时刻,我们可以精确地测量出它的起源——通过大气数据,一种之前不存在的放射性同位素突然出现。我认为,AI生成的文本正接近这个时刻。如果你浏览某个网站,你会看到很多文章,它们是由一些非常忙碌、并非专业作家的人以极快的速度生成的。我读这些文章是因为其中确实包含一些见解、数据和论证。但我很好奇,在我们不断接触这些内容的过程中,那些在我们看来美好的事物是否会开始发生变化,而我们却浑然不觉。
Nick:如果AI写出来的东西比人类写出来的东西还好呢?如果2028年X平台上的平均写作质量比2023年更高呢?
Rohit:平均质量确实提高了,但人们对它的反感也更强了。我用的是Pangram(一款检测AI生成文本的工具)——到处都是。不只是X,记者、已发表的文章里也充斥着它。“垃圾”这个词用得恰到好处,因为它看起来像是一顿丰盛的大餐,但实际上却毫无营养,空洞无物。这就是AI的拙劣之处。它擅长的领域——比如构建 Azeem 每天用的应用,或者我用的那些——才是真正的能力。如果我让AI帮我写一篇文章,然后我又得重写,那反而会增加工作量,而不是减少。
Azeem:AI内容也告诉我们,文字生产的机械化程度已经很高了。某些研究报告、学术论文、营销文案,本质上都是由人类执行的算法,就像早期NASA的女性计算机执行我们现在交给机器的计算一样。真正的写作发生在别处,而且极其困难。
我努力构建AI风格指南,是希望它能帮助人们学习我的写作方式。它无法完全复制我的写作,除了一些细微之处:我偏爱日耳曼语词根而非拉丁语词根,我写的句子91%都是主动句,段落内句子长度也会有所变化。这些只是表面现象。真正缺失的是源于切身经历和鲜活生活体验的部分。我想,我们面临的挑战在于,随着这些工具的普及——我们获得的许多体验,无论是Netflix、TikTok还是商店里的商品,都离不开它们——我的体验将会变得更加模糊,因此也更容易与外部AI系统生成的文本相吻合,而不是像我曾经那样,以更真实的方式去体验事物。
Nita:我一直在研究意义建构方面的研究。这种影响更多地体现在贡献者身上,而非接收者身上。你对人类知识体系的贡献,是自我成长的一部分。大脑需要这种成长过程。当AI取代它时,你不会体验到同样的效果。我生命中最具影响力的书之一是《献给阿尔吉侬的花束》。我二年级就读了这本书——太早了,我全程都在哭。Daniel Keyes花了十四年时间才写完。这本书始于他还是医学生的时候;后来他遇到了一位智力有障碍的人。所有这些感受都融入了书中。这与Azeem用AI花了九十分钟提炼他的世界观有什么不同吗?也许有。我们不得而知。但我们必须承认,十四年的写作与AI辅助的九十分钟提炼,在本质上是不同的。
如果你与AI进行迭代式合作,将你的声音和生活经验融入其中——并将其作为传递这些内容的媒介——这与那些完全不把自己代入其中的LinkedIn帖子截然不同。这其中存在着本质区别。
Azeem:确实存在差异。今天我做了一个项目。我们在EV公司写了数百万字。我想提取出我们的核心观点——我对某些事情的看法是什么,以及这些看法是如何转变的?我让AI分析了所有这些文字,构建了一个概念图:我曾经持有的十几个观点,以及它们随时间推移的变化。我亲自审阅了它,然后与团队分享。原本需要1000小时的人类工作,我只用了90分钟。我只做了不到0.2%的工作量。但我仍然觉得我贡献了一些有用、实用且极具个人特色的东西。
Rohit:每当AI足够强大时,我们就会把它视为一种工具——因为它变得可靠。而当它走向极端时,我们又会认为它会摧毁某些固有的人性。我们在各个领域都经历过这种情况:放射学、金融、供应链等等。艺术领域的情况有所不同,因为它是一种独特的人类活动。但每当AI强大到足以完成我们自己想做的工作时,我们通常都乐于把它交给别人,然后去创作更多像《献给阿尔吉侬的花束》这样的作品。
Eric:这有点像魁北克和加拿大其他地区的情况。你必须有意识地保护自己的语言,否则它就会被淘汰。如果我们没有有意识地将AI作为一种工具来使用(我认为这才是它应有的定位),我们就会失去人类文化中至关重要的一部分。
Azeem:是刻意的意图,就是这样。是关于我们自身能力的刻意意图。是刻意地认为这些东西只是工具,无论我们如何审视它们,无论我们如何拟人化它们,它们始终是工具,而且应该保持工具的本质。
本文编译自substack,原文作者AzeemAzhar、NitaFarahany、EricTopol等
https://www.exponentialview.co/p/where-the-human-ends-and-ai-begins
热门跟贴