打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

撰 文|马 君 上海大学管理学院教授,博士生导师

杨雅雯 上海大学管理学院 研究生

徐正昊 上海大学管理学院 博士生

在古希腊神话中,普罗米修斯从神明那里盗取了火种,这一壮举不仅象征着人类智慧的觉醒,更标志着人类从此告别了蛮荒,跨入了利用工具点燃文明之光的新纪元。

今天,我们正站在另一个划时代的门槛上,这一次,引领我们的是通用人工智能的发展,GPT-4、Gemini、Sora、Claude 3等越来越多的多模态人工智能工具,正在引领一场史诗级的变革,不仅催生出众多的应用场景,更是在与传统行业深度融合中创造出新的价值和更多新的可能。可以预期,未来随着万亿参数级GPU计算和AI基础设施的突破,还将涌现出更多的人工智能工具,探索如何更优雅地实现人与AI共创,已成为我们共同的课题。

打开网易新闻 查看精彩图片

人类与人工智能的共创时代

埃森哲等咨询机构联合发布的报告显示,到2030年,人工智能有望为全球GDP贡献约20%的增长,并减少约3 000亿工时的劳动,相当于每周为每个人节省两小时的宝贵时间。微软公司的一项发现揭示了一个引人注目的事实:使用Copilot的员工,完成任务所需的时间比未使用的同事少了26%~73%。

人工智能已不再是单纯的工具,而是化身为与人类并肩作战的创新伙伴——通过人机交互,人类仿佛被赋予了第二颗大脑。这一切,预示着人类正跨入一个智慧与智能共舞的新时代。

在共创征途中,我们必须打破将AI仅视为工具或过度拟人化的二元困境,而应从人类社交的细腻纹理中汲取灵感,营造一种类似人类与人工智能共生的社会景象。

在古希腊神话中,第达罗斯(Daedalus)是一个技艺高超的工匠,他和儿子伊卡洛斯(Icarus)被国王米诺斯(Minos)囚禁在克里特岛。为了逃脱,他设计并制造了一对能够飞翔的翅膀,用蜡将羽毛粘合而成。起飞前,第达罗斯警告伊卡洛斯不要飞得太高,因为太阳会融化翅膀上的蜡,也不要飞得太低,因为海水会浸透羽毛。然而,迷恋自由与兴奋的伊卡洛斯在飞行中忘记了父亲的忠告,飞得越来越高,最终太阳的热量融化了他的翅膀,导致他坠入大海溺亡。

AI 技术如同第达罗斯制造的翅膀,潜力巨大、活力无穷,但是正确的使用方式却至关重要。事实上,人类与 AI 在创造力上各有侧重各具千秋:人的创造力受到文化和知识的滋养,宛如清泉,涌动于直觉与情感之中;而人工智能则似精密的钟表,依托算法与技术精准运转,跨越多领域多模态展现其创造潜能。因此,人—AI共创是一种源于二者间的交融互动而产生的非对称创造形式。个体在与AI合作上的差异,制约了人—AI共创力的发展水平。

诺贝尔经济学奖获得者赫尔伯特·西蒙指出,创造力并非“天才”的专属特质,实际上,天才和普通人的思维过程没有根本区别,只是前者更善于运用启发式思维。启发式思维并不是依赖系统、确定的步骤来寻找答案,而是通过个人的经验规则来探索解决问题的方法。同样地,在人与AI共创的过程中,核心也是这种启发式思维。我们称这种能力为“提示素养”(prompt literacy),它让人类与AI能够基于经验、直觉和创意,共同探索并创造新的可能。

在驾驭生成式人工智能系统时,提示素养的互动能力尤为关键。这种能力无需复杂的编程知识,却能让人们与人工智能进行流畅的对话。学者黄耀汉等人将其定义为:人类通过精准的提示输入AI,AI基于这些提示生成内容,随后由人类解释和确认输出,通过反复迭代直至达成目标的能力。这不仅仅是一种技能,更是一种艺术,通过自然语言引导AI完成复杂任务的智慧。

2024年,在新加坡政府科技局举办的首届GPT-4提示工程大赛中,数据专家Sheila Teo凭借CO-STAR框架夺得冠军。她分享了经验:“假设你是一位社交媒体管理者,需要草拟一篇Facebook帖文来宣传公司的新产品。如果不使用CO-STAR,GPT-4的输出会缺乏细节和吸引力。使用CO-STAR模板后,提示词可以这样写:‘情境:宣传Alpha的新型超高速吹风机Beta。目标:撰写一篇Facebook帖子以推动点击率。风格:遵循Dyson 的风格。语调:说服性的语调。受众:针对重视简洁技术的老年群体。’这样,GPT-4会输出更详细且有针对性的响应。CO-STAR框架综合考虑了情境、目标、风格、语调、受众等关键因素,帮助用户生成更优质且相关的ChatGPT回应。”

提示素养要求使用者能够准确设定任务目标和语境,并能理解和适时调整这些提示以达到预期的输出结果。这种素养反映了使用者在交互过程中的理解和能力,以及在协作过程中如何有效地调整和优化提示以达成最终目标。相比之下,CO-STAR 框架提供了一个系统化的提示方法,证明了通过框架训练可以显著提升 AI 输出的质量和相关性。然而,提示素养则更为广泛和灵活,要求用户在不同情境中能够自主设定和调整提示,以实现最佳效果。

概括而言,提示素养涵盖三大核心要素:输入提示词的质量、对AI输出的解码与判断、以及迭代行为——每一步在人机共创中都不可或缺。这不仅是技术领域的革新,更是思维模式的飞跃。为了更直观地展现人—AI 共创的流程和提示素养的价值,本文绘制了人—AI 共创流程图(见图 1)。该流程图展示了一个开放式闭环:由“人启动共创任务 →AI 响应→人评估与决策→共创任务完成”组成,系统探索了人与人工智能的耦合关系,深入解析共创过程中的协同性、复杂性和动态性,揭示提示素养在其中的核心作用,旨在优化人—AI协作模式,提升共创效率,增强个人与组织的数字竞争力。

打开网易新闻 查看精彩图片

图1 提示素养影响的人-AI共创流程图

打开网易新闻 查看精彩图片

提示素养对人机共创的影响过程
流程第一步:共创任务的启动

如图1第二列所示,第一步是共创任务的启动,使用者扮演启动者角色。提示素养对于构建高质量提示词、指导生成式人工智能输出高质量内容具有决定性的作用。不同提示素养的使用者在输入提示指令时,其差异主要源于表达、知识和情感三个方面。

首先,表达差异体现在使用者是否能清晰、具体地阐述任务和需求上。清晰的表达方式会让共创者更好地互通想法。

其次,知识差异则是使用者底蕴的体现。在特定领域的专业知识储备,决定了AI输出的深度与广度。例如在生产领域,资深生产经理会要求 AI 根据原材料供应、人力资源状况、设备利用率和订单优先级智能调度生产任务,以最大化生产效率。而新手管理者可能只是要求 AI 调整“每日生产计划”,无法充分利用数据和算法,影响生产效率。

第三,情感差异体现了输出指令的情感色彩。使用者的情感词汇和情感输出方式不仅传递了文字信息,更传递了用户的情感与态度。大语言模型可以理解情感刺激,并在生成内容时利用情感刺激来增强模型的输出质量。实践中发现,在提示中使用诸如“相信自己的能力”、“出色”等短语,能有效激励AI展现出更好的表现。

流程第二步:共创任务的响应

如图 1 第三列所示,接收到用户的提示指令后,AI会利用其内部的算法和模型处理输入数据,并生成相应的输出结果。在这一过程中,基于人类反馈的对照学习使得AI能够根据用户的反馈信息,调整和优化生成的结果,以提高任务的完成质量和用户满意度。在共创任务的响应过程中,AI的表现受到任务特征、训练AI的数据边界以及AI的选择偏好的影响。

首先,任务特征,特别是任务颗粒度的探讨,是理解这一现象的关键。任务颗粒度指的是任务的可描述性,即问题解决者在执行任务时所需的指导与自由度。通常粗颗粒度任务更加开放和灵活,因为问题解决者需要自行定义目标和路径,具有更大的自由度和创造空间。反之,细颗粒度任务,任务目标和路径基本已被明确界定,问题解决者只需按照常规方式进行规划。而这种精确与高效,却会将创意的画布缩小,使得输出的结果更具备一致性而难以出现开拓性。

其次,数据边界涉及训练 AI 的数据集范围与质量。OpenAI 公司基于 Transformer 网络搭建的 GPT 模型,在推理、语言能力以及图像和文本输入输出等方面拥有无以伦比的能力,但它们大量来源于不同的数据训练。这表明不同特性的任务执行输出会因数据边界的变化而受到影响。为了打破数据边界的限制及数据造成的幻觉,或者“数据偏见”,业界进行了很多尝试,包括扩充训练集,或者模拟数据进行自我迭代,但是本质上依赖于数学框架的人工智能仍然受限于此。

再次,AI的选择偏好由任务颗粒度和数据边界共同决定。学者凯里·莫尔维基等人认为,AI设计师通常基于错误的假设来构建算法,即根据用户行为(显示偏好)训练算法,尝试揭示用户的真实偏好(规范偏好)。而奈飞的一项调查发现,用户虽然倾向于将高雅的电影列入播放列表,但最终实际播放的却是算法推荐的低俗节目和电影。这是因为算法通常根据点击量、浏览量和购买行为等显示偏好来推测用户的规范偏好。这反映了人类对放纵物和自律物之间矛盾欲望和动机。使用这些有局限性的数据来训练模型,必然会导致算法产生数据偏见。

设想让AI协助创作一幅独具用户风格的艺术作品,这属于粗颗粒度任务,AI因数据集的限制,可能只能展示一些常见的艺术风格或流行趋势,即受到“显性偏好”的影响,难以准确捕捉用户真正的目标和价值观——“规范偏好”。因此,用户可能需要提供更多的输入与构想,甚至发现自己更愿意亲自动手创作,因为尽管AI强大,却受限于训练方式难以生成原数据库不存在的创意。相反,当AI被赋予执行细颗粒度的算法式任务,如语言翻译,其特点是输入与输出之间存在明确且稳定的映射关系,数据集的边界限制较小,任务更贴近用户的“规范偏好”,人和AI共创的效率亦得以提升。

流程第三步:共创任务的评估

凯文·凯利曾形象地比喻:“AI就像一个实习生,尚不能独当一面,我们需要对其工作成果进行二次核验。”因此在创意过程中,评估目标与结果的关联程度以及迭代试错显得至关重要。

在评估阶段,提示素养仍然是我们手中的一把金钥匙,直接影响对AI输出的评价和判断。

第一,评价标准。首先,评价的核心指标之一是关联元素的新颖性和距离。创造性思维的过程涉及将相关联的想法元素组合成新颖且实用的形式。在这个过程中,与概念有着较远联系的元素,通常会促成更具创新性的组合。其次,效率也是一项评价标准。准确高效地达成用户满意的共创结果,可以增强使用者的创造动机,而高提示词素养用户在使用过程中迭代的准确性与灵感启发性也可以进一步优化AI的共创流程。再次,伦理和道德观更是不可忽视的评估标准。确保共创内容和结果符合健康和正直的伦理观是AI伦理建设的一个关键需求,也理应成为我们评估AI共创内容的重要指标。最后,安全性是我们评估AI结果的一大核心标准。

作为一个可以创造内容的语言模型,生成式人工智能本身也能对共创任务的结果进行评估,甚至可以构建AI—Agents集群链条来程序化地进行评估。不是简单地用“这个好,那个坏”的术语,而是通过结构化的反馈来帮助用户思考想法。

第二,批判思维。基于以上评价标准,我们需要以批判性的思维审视每一个细节。这一过程不仅是对AI内容的深度剖析,更是对专业领域知识的提炼和升华。

第三,整合能力。用户需将AI的产出与自身的目标、标准或偏好相结合,以实现最佳的共创效果。

流程第四步:共创任务的决策

共创任务的决策,包括决定是否使用AI进行共创以及何时结束共创。诺贝尔经济学奖获得者丹尼尔·卡尼曼指出,人类在决策过程中并非总是理性,常受到各种认知偏见和启发法(heuristics)的影响。

据此他提出了两套决策系统:系统1是一种依赖直觉和经验的快速思维机制,能够在缺乏深思熟虑的情况下迅速做出反应。其特征包括快速、认知负荷低和直觉导向。相对而言,系统2是缓慢而分析性的思维模式,依赖逻辑推理,适用于复杂且需要详细分析的决策。其特点是慢速、认知负荷高和分析性强,需要时间来处理和分析信息,决策过程需要大量的认知资源,主要依赖逻辑推理和深度分析。

卡尼曼指出,尽管系统2的决策准确性较高,但在实际生活中,人们更常依赖系统1,因为它反应迅速且节省资源。然而,这也使得我们的决策更容易受到各种认知偏见的影响。本文提到的人-AI共创的决策流程有效地规避了这种依赖性。生成式AI通过对话链和反馈链建立任务流程,这种类似讨论的协作模式能够有效激发系统2所需的逻辑推理和深思熟虑,从而减少对经验和直觉的依赖。同时,反馈过程中提供的新信息也有助于用户更好地避免锚定效应。

流程第五步:共创任务的结束

人与AI的共创旅程旅并非永无止境,达到理想状态通常是可遇不可求的情况。因此,使用者要学会“先加法,后减法”。学者大卫·伊格曼和安东尼·布兰德提醒我们,在创意过程中,放弃大部分创意可能会让人感觉浪费,但这实际上是创造过程的核心。受制于预算、时间、流程、进程等现实条件的约束,组织不可能让使用者过度追求新奇而忽视切实可行的方案,或者过度迭代而错过时机,因此,很多时候共创任务最终收敛于局部条件最后的状态下(见图 1 最右端)。

尽管人与 AI 共创可能以不完美的状态落幕,但我们切不可忽视其蕴含的“回旋镖效应”的潜力——它精准的回到初始点,为用户的知识、表达与情感注入崭新的活力,激发下一次共创的可能性。这就意味着,由提示素养引领的共创任务完成后,反过来将提升个体的提示素养,用户进而将新的素养泛化到新的任务中,充分彰显了共创与提示素养之间的相辅相成、相得益彰。

正如凯文·凯利所言:“虽然人类短期内不可能被人工智能完全取代,但有可能会被那些善于运用人工智能的人所取代,这已经成为一种普遍的趋势。”当人类的思考与机器的逻辑交织碰撞,便激荡出绚丽多彩的创新火花,推动着我们翻越旧有的边界,迈向未知的远方。值得一提的是,提示素养的价值远不止于与人工智能的对话之中。它更是一种跨越领域、跨越场景的通用技能,适用于商业决策、工作创新乃至日常生活的方方面面。在技术的浩瀚海洋中,亦不能忘却人性的温暖与光辉,我们必须跨越算法与数据的冰冷之境,在追求创新的同时,铭记科技向善的永恒主题,共同绘就人类与 AI 和谐共生的壮丽画卷。

打开网易新闻 查看精彩图片