身处人工智能时代,对于组织和机构来说,人工智能战略与人工智能哲学理念之间的区别通常被归结为范围上的差异:战略关注执行,理念关注原则。但这种框架虽然直观,却可能低估了其中的真正利害关系。更深层次的问题并非仅仅在于组织需要两者,而在于,在缺乏明确阐述的人工智能理念的情况下,每项战略实际上都包含着某种理念——未经审视、沿袭而来,且往往与组织自身的特性不符。

传统意义上的人工智能战略对大多数高管来说都易于理解。它明确了优先事项:构建哪些能力、增强哪些功能、将资源部署到哪里以及预期结果是什么。它以时间表、投资和可衡量的回报为导向。从这个意义上讲,战略是在约束条件下进行选择。它回答诸如以下问题:人工智能将在哪些方面创造最大价值?我们应该以多快的速度推进?哪些风险是可以接受的?这些都是必要的问题,但它们都基于预设的框架。战略预设了一系列关于价值的定义、有效知识的构成以及哪些权衡取舍是合理的假设。

与之相反,人工智能哲学理念则对这一框架本身进行审视和定义。它并非抽象的伦理探讨,也不是脱离实践的高级原则集合。相反,它是一套塑造人工智能系统推理、决策和行动方式的根本承诺。它规范着数据的解读、不确定性的处理以及结果的优先级排序。如果说战略关乎选择,那么哲学则关乎使这些选择显得合理的逻辑。

当我们考虑人工智能系统中通常蕴含的三个哲学维度——目的论、认识论和本体论——时,这一点就更加清晰了。目的论关注的是目标——系统旨在实现的目标。认识论关注的是知识——系统将哪些信息视为可信或可操作的信息。本体论关注的是表征——系统如何对其运行的世界进行建模。这些并非理论范畴,而是实际运行的范畴。每个模型、每个数据集、每次部署都编码着关于目标、真理和现实的假设。

然而,在实践中,这些维度并非同样显而易见。目的论是最常被提及的维度,通常以使命宣言或设计目标的形式出现。组织声称其人工智能旨在“增强人类决策”或“提升客户体验”。然而,此类声明很少能约束系统的实际行为。当效率与准确性、个性化与隐私、速度与深思熟虑之间出现权衡取舍时,系统的真正目的论并非体现在其宣称的目标上,而是体现在其持续优化的目标上。

认识论的影响更为深远,却也更少受到关注。它决定了系统中哪些内容可以被视为知识:概率输出、历史关联、实时信号,还是人类的专业知识。将人工智能输出视为建议的组织,其工作流程的设计方式将与将其视为权威的组织截然不同。验证、监督和问责等问题都取决于这种认识论立场。然而,在许多部署中,认识论实际上被外包给了模型提供商,嵌入到被视为理所当然而非经过严格审查的训练数据和推理机制中。

与此同时,本体论是最微妙的,也可能是最具变革性的。它决定了现实中复杂、定性的方面如何被转化为计算形式。客户变成了用户画像,风险变成了评分,创造力变成了模式生成。这些转变并非仅仅是技术性的;它们是还原论行为,凸显了现实的某些维度,同时掩盖了其他维度。一旦编码完成,这些表征就会对决策产生强大的影响,而这种影响往往不为人所察觉。

随着人工智能系统从工具演变为智能体,策略与哲学之间的区别变得尤为重要。传统软件执行预定义的指令;生成模型根据提示生成输出。然而,智能体系统能够解读目标、制定计划并在动态环境中采取行动。它们并非简单地做出反应,而是进行决策。在此过程中,它们将自身蕴含的哲学假设付诸实践。

智能体必须确定其目标(目的论)、信息评估方式(认识论)以及其所处环境的建模方式(本体论)。如果这些维度没有明确定义,智能体将依赖默认假设——这些假设编码在其训练数据、架构或外部API中。其结果并非中立,而是通用性:智能体的行为反映的是数据的统计常态,而非部署该智能体的组织的独特价值观。

哲学与组织文化之间的关系正是在此变得至关重要,尽管二者不应混为一谈。正如埃德加·沙因所言,文化在多个层面运作,从可见的表象到根深蒂固的假设。彼得·德鲁克曾指出,文化甚至可以凌驾于最精妙的战略之上。然而,人工智能引入了一种新的动态。它并非仅仅反映文化;它会选择性地编码和放大文化的某些方面,同时抑制其他方面。

一个组织可能重视判断力、自由裁量权和情境敏感性。但如果其人工智能系统的设计目标是优化速度、一致性和规模,那么这些人类价值观在实践中可能会被边缘化。随着时间的推移,系统的逻辑会重塑组织的行为,形成一个反馈循环,在这个循环中,可衡量的因素最终会成为衡量价值的标准。从这个意义上讲,人工智能理念与其说是一种文化宣言,不如说更像是一种宪章框架。它界定了自动化决策运行的边界。

缺乏这样的框架会导致一种更为系统性的风险:趋同。随着组织采用类似的模型、工具和最佳实践,它们开始展现出相似的推理和决策模式。这种趋同并非立竿见影,但却有着深远的影响。它削弱了差异化,使得组织除了规模或执行力之外,更难在其他方面展开竞争。更重要的是,它为关联性失败创造了条件。如果许多系统依赖于类似的假设,那么在类似的情况下,它们很可能会犯类似的错误。

因此,构建人工智能理念并非仅仅是内部协调的问题,而是在技术基础设施日益标准化的环境下,一种战略上的必然选择。它使组织即使在使用共享的底层模型时,也能保持其独特的知识、判断和行动方式。

然而,挑战在于,哲学理念不能像战略那样被轻易借鉴。它需要明确阐述那些通常被隐含或回避的问题:哪些方面即使可以优化也绝不应该优化?何时应该由人类判断凌驾于机器输出之上?现实中哪些方面难以量化,又该如何处理?这些并非纯粹的技术问题;它们是组织层面的承诺,必须明确阐述才能产生任何效果。

归根结底,人工智能战略与人工智能哲学理念之间的区别可以理解为扩展能力与扩展判断力之间的区别。战略决定了组织能够利用人工智能做什么,而理念则决定了组织将如何决定做什么,尤其是在正确的行动方案不明确或存在争议的情况下。

即使没有明确的理念,组织也无法摆脱某种理念的束缚。它们会继承这种理念。它根植于各种模型、界面和默认设置之中,并携带着关于知识、价值和现实的假设,而这些假设可能与组织自身的优先事项相符,也可能不符。随着时间的推移,这些假设会逐渐被规范化,并以难以察觉且更难逆转的方式影响决策。

打开网易新闻 查看精彩图片