随着生成性人工智能在组织中迅速传播,管理者面临一个看似简单的问题:人类该如何与人工智能合作呢?常见的回答是“让人类参与其中”,听起来让人放心。

但新的研究显示,这个答案其实是危险的不完整。看似相同的“人类在环”方法其实有三种截然不同的表现方式,对绩效和技能发展影响深远。

为了弄清楚公司如何能真正从人类与人工智能的合作中获得价值,我们和244名顾问进行了一项实地实验,使用GPT-4来解决复杂的商业问题。在哈佛商学院、麻省理工学院斯隆管理学院、沃顿商学院和华威商学院学者的支持下,该实验分析了近5000次人类与人工智能的互动,以回答一个关键问题:当人类与生成性人工智能合作时,他们到底在做什么——而他们应该做什么呢?

人类与人工智能合作的三种隐藏模式

人类与人工智能合作的三种隐藏模式

我们实验中最引人注目的发现是,使用生成性人工智能的专业人士自然分成了三种不同的合作风格——每种风格的结果都截然不同:

半机械人(60%的参与者) 参与了我们称之为“融合知识共同创造”的过程——在整个工作流程中与人工智能进行持续、迭代的对话。他们在工作流程的每个子任务中以不同的方式使用人工智能:他们为人工智能分配角色,将复杂任务拆分为模块,质疑人工智能的输出,揭示矛盾,并在动态互动中验证结果。对半机械人来说,人类与人工智能的思维界限变得故意模糊。

人马(14%的参与者) 实践“定向知识共同创造”——在严格控制整体问题解决过程的同时,选择性地使用人工智能处理特定子任务。他们利用人工智能增强自己的能力,绘制问题领域,收集方法论信息,并完善自己生成的内容。但他们始终掌控全局,把人工智能当作一个有针对性的工具,而不是合作伙伴。

自我自动化者(27%的参与者) 参与了“放弃知识共同创造”——将整个工作流程交给人工智能,几乎没有迭代或批判性的参与。他们向人工智能提供数据和指令以进行子任务,然后接受其输出,几乎不做修改或仅做小幅编辑。他们的工作快速且精致,但缺乏深度——更像是为他们完成的,而不是和他们一起完成的。

值得注意的是,每位参与者都可以使用相同的工具和相同的任务。他们没有收到关于与人工智能工作流程的不同指示。然而,他们在何时使用人工智能以及给予人工智能多少权威方面的本能选择,产生了根本不同的协作动态。

理解协作的框架

理解协作的框架

为了理解这些模式,我们开发了一个框架,围绕两个基本问题构建,这两个问题构成了人类与机器之间协作问题解决的结构: 谁选择需要做的事情? 和 谁确定如何完成它?

半人半机器的协作让人类决定“做什么”,但允许人工智能在“如何做”上有显著控制。人马组合保留了人类在这两个维度上的控制和领导,仅使用人工智能进行有针对性的辅助。自我自动化者则将两者的控制权完全交给了人工智能。值得注意的是,第四种理论可能性——人工智能主导任务选择而人类主导执行——在我们的研究中保持空白;当专业人士放弃对工作内容的控制时,他们也倾向于放弃对如何完成工作的控制。

隐性成本:专业知识发生了什么?

隐性成本:专业知识发生了什么?

也许我们最重要的发现是每种协作模式下专业知识的变化。其影响截然不同:

半人半机器的协作发展了新的与人工智能相关的专业知识——我们称这种现象为“新技能”。通过对提示策略的持续实验,他们学会了如何有效地与人工智能沟通,何时反击,以及如何从协作中提取最大价值。他们还通过在整个过程中保持积极参与,维护了自己的领域专业知识。

人马组合深化了他们的领域专业知识——传统的“提升技能”。通过使用人工智能来加速对不熟悉行业的学习,收集方法指导,并完善自己的思维,他们建立了更扎实的基础能力。然而,因为与人工智能的互动有限且很有针对性,他们并没有发展出显著的与人工智能相关的专业知识。

自我自动化者并没有得到发展——经历了我们所称的“无技能状态”。通过将整个思考过程交给人工智能,他们错过了建立专业知识和人工智能使用能力的机会。他们的生产力提升却牺牲了职业发展。

这个发现应该引起高管们的重视。当员工习惯于自我自动化的行为——我们的四分之一高素质顾问就是如此——组织可能在不知不觉中削弱了创造竞争优势的专业能力。

绩效影响:谁做得对?

绩效影响:谁做得对?

我们的实验从两个方面评估结果:准确性(他们推荐的品牌对不对?)和说服力(首席执行官备忘录有多引人注目?)。结果对关于人工智能合作的简单假设提出了挑战:

半人马的准确性是最高的——在找到正确答案方面超越了赛博格和自我自动化者。通过控制分析过程并用自己的判断来评估人工智能的输入,他们避免被人工智能那些自信但有时错误的建议所误导。

赛博格和半人马在说服力上表现得非常出色——他们的输出比自我自动化者更有说服力。无论是通过迭代改进(赛博格)还是人力分析(半人马),参与的深度转化为更高质量的成果。

值得注意的是,赛博格有时会被人工智能的说服力所影响。即使他们采取了最佳实践,比如验证——让人工智能检查自己的工作——他们有时也会被人工智能对错误答案的自信解释所说服。这突显了一个重要的风险:与人工智能的复杂互动并不能保证不受其错误的影响。

公司现在该做些什么?

公司现在该做些什么?

这些发现对组织部署生成性人工智能(GenAI)有直接影响:

首先,放弃“人类参与”这一单一神话。高管们必须意识到,员工们已经采用了截然不同的协作风格,而这些差异非常重要。仅仅要求“人类监督”而不具体说明是什么意思,会导致结果极其不一致。

其次,要将协作风格与战略目标相匹配。对于那些需要在高风险决策中达到最大准确性的任务,鼓励采用半人马行为——选择性使用人工智能,并结合强大的人工判断。对于需要快速迭代和创造性探索的任务,采用赛博格行为可能更合适。将自我自动化方法仅用于真正的例行任务,而不是核心或高风险任务,并且在技能发展不是问题的情况下。

第三,要监测自动化带来的自满情绪。我们研究中发现,27%的自我自动化率出现在那些高度熟练、积极的专业人士中,他们知道自己的表现正在被评估,这表明过度委托的诱惑非常强大。组织必须开发机制,来检测员工在需要人类参与的任务上滑向完全自动化的情况。

第四,要重新思考如何衡量人工智能的采用成功。仅仅使用最终结果——比如编辑率或接受比率——作为参与的指标是不够的。一个接受人工智能输出的自我自动化者和一个经过广泛迭代后接受精炼版本的赛博格,在数据上可能看起来是一样的。公司需要在整个工作流程中跟踪互动质量,而不仅仅是结果。

第五,要投资于同时提升人工智能流利度和领域专业知识。我们的发现表明,最可持续的方法是将这两者结合起来。赛博格行为在保持领域知识的同时,构建先进的人工智能技能;而半人马行为则在提供基本的人工智能接触的同时,构建领域技能。公司需要有意识地开发这两种能力的培训项目,而不是指望员工自己去摸索。

挑战:人工智能时代的专业知识

生成性人工智能的出现让组织面临一个悖论。这项技术承诺提升人类的判断力、创造力和速度,但它也带来了一个隐秘的风险:在把更多思考交给机器的过程中,专业人士可能会逐渐放弃那些让他们有价值的能力。在某些人手中,这些工具能够提升专业知识,而在其他人手中却可能完全取代它,导致组织在短期内获得令人印象深刻的成果,但人类判断的核心却在逐渐变薄。这不仅仅是另一个效率工具,这是一场革命。好消息是,有效的协作模式是存在的。半人半机器的工作者和人马座展示了人类可以与人工智能有效合作,同时建立而不是消耗他们的专业知识。高管面临的挑战是创造组织条件,鼓励这些富有成效的模式,同时阻止诱人但自我挫败的完全自动化路径。

随着人工智能能力的不断扩展和提升,能够蓬勃发展的组织将是那些不仅掌握人工智能能做什么,还懂得如何与之合作的组织。理解“人类在环”并不是单一的方法,而是三种根本不同的协作模式——它们的后果也截然不同——这是建立这种掌握的第一步。