Beyond Control: Will to Power in AI

超越控制:AI的权力意志

https://www.researchgate.net/profile/Ines-Hipolito-2/publication/380892710_Beyond_Control_Will_to_Power_in_AI/links/6653d408479366623a164e0f/Beyond-Control-Will-to-Power-in-AI.pdf

打开网易新闻 查看精彩图片

摘要

耸人听闻的论调将人工智能(AI)描绘为一种超越人类控制的实体。我们主张,尽管AI可能展现出看似“失控”的特征,但这并不必然源于其作为独立实体的本质属性。“AI失控”的恐慌叙事正阻碍我们对如何切实、有意义地实现对AI的控制进行深入反思。为澄清此问题,本文第一部分提出一个理论框架,其基于两个变量:可控/不可控的AI价值中立/价值负载的AI。该框架导出四种关于AI本体论的 distinct 视角,即:价值中立工具主义(Value-Free Instrumentalism)、决定论(Determinism)、价值负载批判理论(Value-Laden Critical Theory)和实体主义(Substantialism)。我们的核心论点是:AI之所以被感知为“缺乏控制”,其根源并非在于其所谓价值中立的“心智独立性”(mind-independence),而在于其内在嵌入的价值负载的社会文化权力动态。第二部分进一步阐发批判理论视角,以阐明:尽管普遍认知倾向于认为AI已脱离掌控,AI实际上始终处于被控制状态。诚然,AI可能引发合理的生存性忧虑,但这些担忧并非源于某种内在的“失控”状态,而是源于某些行为者对AI施加控制,而其动机与公共利益并不完全一致

关键词:人工智能意识;决定论实体;心智独立性;社会文化权力动态;人工智能的可控性

引言

人工智能(AI)正引发人们对其所谓“自主性”日益加剧的不安。媒体叙述常将AI描绘为迅速“脱离人类控制”(《卫报》,2023);有论断称“AI正失控,并造成代际鸿沟”(《商业内幕》,2023);亦有探讨如何解决“失控AI”问题的追问(《麻省理工科技评论》,2023)。

在AI语境中,“失控”一词日益频繁地出现在耸人听闻的媒体叙事中。从哲学层面看,该提法关联于若干主张:即AI具备意识属性,或作为独立于人类影响的实体而运作(Colombatto & Fleming, 2024),例如具有内省能力(Long, 2023)、本体论意义上的能动性(ontological agency),或自主决策能力(Chalmers, 2023)。Chalmers(2023)支持此观点,认为AI展现出与人类相似的意识。在生成式AI——尤以ChatGPT等大型语言模型为典型——兴起的背景下,部分研究者持一种技术“价值中立”立场,视AI为独立于人类心智而存在的对象。David Chalmers(2023)引领了这场讨论,他虽承认当前大型语言模型或尚无意识,但仍主张该领域的发展未来或将导向真正意识的出现。

随着媒体对AI能力的渲染日益加剧,一种“恐慌文化”随之蔓延。这种普遍性恐惧不仅扭曲了公众认知,更阻碍了有效的AI治理。在一个日益依赖AI技术以推动创新、效率与进步的时代,对AI“可控性”的误解将产生深远后果。本文旨在澄清上述问题,促进社会对AI角色形成更充分、更细致的理解,从而推动围绕AI治理展开更具建设性的对话与政策制定。

在AI语境中,“控制”概念远不止于单纯的技术能力,更涵盖AI在社会中如何被感知、表征与管理。这要求我们审视塑造“AI失控”话语的社会力量与权力结构,并考察此类话语框架对监管实践与公众认知的深层影响。“AI失控”这一表述易引发恐慌,甚至可能妨碍监管努力的推进。因此,厘清此问题至关重要——唯有如此,方能切实推动负责任的AI治理,深入把握其理据与意涵,确保AI技术的发展与应用合乎伦理与责任,最大限度减少潜在危害,并促进社会公平福祉的最大化。

那么,“AI失控”究竟意味着什么?该术语意指:AI系统以超越人类理解或监督能力的方式运行。其可能表现为:AI算法产生不可预测或不良结果;在无人干预下自主行动;或展现出显著偏离其原始设计目标的行为。在本文所讨论的语境中,“失控AI”常以AI决策过程的不透明性为特征——即所谓“黑箱问题”。

多种因素——如既得利益、 sensationalism( sensationalism,即刻意夸大渲染)、恐慌文化或认知误解——共同助长了“AI失控”的叙事,从而阻碍了AI监管工作的推进。

“AI失控”这一叙事具有深远的现实影响,因此对AI本质与能力的任何主张,均须以明确标准为支撑。“AI”已深度渗透政府与社会决策过程,尤以公共部门为甚(Kuziemski & Misuraca, 2020)。人们之所以日益依赖AI系统进行决策,是因其被视作具备高效性、数据驱动能力、客观性与可扩展性,并寄望于AI的“客观性”可消解人类偏见(Araujo 等, 2020;Bolton, Raven & Mintrom, 2021;Filgueiras, 2022)。

然而,已有研究明确揭示:AI辅助决策存在显著负面效应,尤以对社会弱势群体的影响为甚,其波及范围涵盖医疗、教育等诸多领域。在AI辅助医疗中,偏见源于训练数据多样性不足,导致诊断准确性与治疗建议中出现人口统计学与社会经济层面的系统性偏差(Celi 等, 2022;Formosa 等, 2022;Giovanola & Tribelli, 2022;Straw & Wu, 2022)。

在AI辅助教育中,偏见亦可多路径显现,影响学生学业表现与成长轨迹。当训练数据偏向特定人群时,AI可能在评估学业表现时产生偏误,进而造成评分、推荐及教育路径上的不公(Mayfield 等, 2019;Baker & Hawn, 2021;Yang 等, 2021;Gašević 等, 2023)。

同样,在AI辅助的数字经济发展中,算法偏见可导致机会与结果的严重分化,对多元群体产生实质性影响(Tomasello, 2023)。数字创新对弱势与边缘化社群所造成的已知负面效应,引发了人们对AI算法可能延续甚至加剧历史性偏见的深切忧虑(Munyoka, 2022)。例如,招聘平台中的有偏算法可能偏袒某些人口群体,从而限制经济机会(Oschinsky 等, 2021);用于信用评分的AI系统中的偏见,则可能进一步扩大既有金融不平等(Hassani, 2021;Kumar 等, 2022;Genovesi 等, 2023)。

倘若训练数据、算法设计及开发团队缺乏多样性,AI便极有可能固化既有偏见,加剧医疗、教育与数字经济等领域的系统性不公(Agarwal, Agarwal & Agarwal, 2023;Nazer 等, 2023)。

对AI本体论所持立场,将深刻塑造监管与立法策略。若将AI视作因其所谓“独立性”(具备意识与能动性)而失控,则监管本身即面临根本性困境;反之,若将“失控感”归因于人类实践内部的权力动态,则监管路径将截然不同。尽管挑战依然严峻,但监管策略必须摒弃将AI当作“有意识实体”对待的思路。AI表面的“不可控性”,实为人类实践的一种属性——因而亟需提升数据集多样性、组建多元化开发团队。我们主张:此一举措对于构建包容、无偏的AI系统至关重要,尤其在应对AI决策过程的不透明性(即“黑箱问题”)方面(Xu 等, 2019;Carabantes, 2020;Minh 等, 2022;Albarracin 等, 2023;Dwivedi 等, 2023)。

本文针对当前日益加剧的AI“恐慌叙事”展开批判——该叙事易诱发无力感(von Neumann, 2011;Cave & Dihal, 2019)与技术恐惧(technophobia)(Oh 等, 2017),常暗含“AI偏见不可修正”的悲观预设;这种认知进而助长一种纵容市场驱动型AI创新不受监管的环境(Geist, 2021)。我们主张:恐慌文化只会延宕AI监管进程。唯有厘清“AI失控”话语的实质,方能避免恐慌文化的自我延续。本文旨在提升此种澄清:通过论证——AI被感知的“失控”并非源于其作为独立实体的地位,而根植于深嵌权力结构的人类文化实践

为此,本文提出一理论框架,其围绕两个核心变量构建:可控/不可控的AI价值中立/价值负载的AI;该框架导出四种关于AI本体论的 distinct 视角:价值中立工具主义决定论价值负载批判理论实体主义。我们主张:AI被感知的“失控”,其根源不在于其所谓“价值中立”属性,而在于其内在嵌入的负载价值的社会文化权力动态。第二部分借助批判理论进一步揭示:与流行认知相反,AI实则仍处于可控状态;其潜在的生存性威胁,并非来自“失控”,而恰恰源于“被控制”——只是施控者所持动机,远非以公共利益为首要考量。

  1. 解码AI的“控制”:从价值中立到价值负载

围绕AI被感知为“缺乏控制”的争论,远非纯粹的学术探讨;它对AI领域的监管与立法具有深远现实影响。若将AI视作具备意识与能动性的独立实体,则对其行为进行规制将成为一项艰巨任务,甚至可能使建立有效控制机制的努力复杂化。相反,若将AI的“不可控感”理解为植根于权力结构中的人类实践产物,则监管路径将截然不同。AI究竟可控抑或自主,这一问题至关重要——因其直接决定了我们如何对待人工智能系统的发展、监管与伦理应用。通过审视导致AI“失控感”的社会与结构性因素,监管者方能有效缓解AI决策过程所伴随的风险,并推动AI治理走向公平与透明。

自动化社会决策这一议题尤为关键,它促使我们反思:是否可能、以及在何种程度上,可赋予AI系统理解和应对复杂人类实践与互动的能力(Birhane 等,2022;Munn,2023)。本节提出一个理论框架,其基于两个变量构建:可控/不可控的AI价值中立/价值负载的AI。该框架导出四种关于AI本体论的 distinct 视角,即:价值中立工具主义(Value-Free Instrumentalism)、决定论(Determinism)、价值负载批判理论(Value-Laden Critical Theory)与实体主义(Substantialism)。本文主张:AI被感知的“缺乏控制”,其根源不在于其所谓“价值中立的心智独立性”(value-free mind-independence),而在于其内在嵌入的、负载价值的社会文化权力动态(value-laden sociocultural power dynamics)。

价值中立的AI观认为,AI系统的开发与运行不包含明确的道德、伦理或价值考量。Sundström(1998)与Pitt(2013)等学者曾阐述过这一立场,其强调在AI决策过程中有意避免预设伦理原则或偏见。在此范式下,AI系统力求实现中立性与客观性,摒弃主观判断与伦理信念,如图1所示。根据该观点,道德价值取决于工具的使用方式,而非工具本身;相应地,监管与问责的焦点便转移至使用者身上。

打开网易新闻 查看精彩图片

价值负载的AI观认为,人工智能系统并非中立实体,而是深受其特定社会文化语境的深刻影响。该范式承袭Cave(2020)的洞见,承认包括AI在内的技术发展路径,与其所处的社会文化环境密不可分地交织在一起。它指出:AI系统自构想至落地的全过程,均浸润着其起源社会文化共同体的价值观、规范与认知视角。正如Menary与Gillett(2022)所阐明的那样,工具开发的各个阶段——包括创意生成、团队组建、数据选取,以及在不同人群与文化中的部署与推广——无不反映并再生产着社会文化影响。因此,价值负载的AI观强调:社会价值观与文化动态在塑造人工智能系统的研发与应用中发挥着关键作用(见图2)。

打开网易新闻 查看精彩图片

理论负载(Theory-Laden)与价值中立(Value-Free)AI之间的互动,交汇于一个关键考量:即人类在AI的设计与实施过程中所施加的控制程度。这一交汇引出了若干深刻问题:
对于价值中立的AI而言——人类是否能够对其加以引导与规制?抑或它已具备某种自主存在性?
对于理论负载的AI而言——人类能在多大程度上将其导向特定目标?此种控制本身又蕴含哪些伦理意涵?

随着关于理论负载与价值中立AI的讨论与“可控性”概念相互交织,由此衍生出四种主要的哲学立场:工具主义(Instrumentalism)、实体主义(Substantialism)、决定论(Determinism)与批判理论(Critical Theory)。在可控性与伦理考量的框架下,对这些立场进行细致辨析,对于AI领域的各类利益相关者而言至关重要(见图3)。

打开网易新闻 查看精彩图片

在后续各节中,我们将深入技术哲学的丰富脉络,援引Kaplan(2009)、Ihde(2004)、Reid(2022)与Russo(2022)等学者的经典论著,聚焦于关于技术的四种 distinct 哲学立场,并将其细致地应用于人工智能语境。总体目标在于阐明这些理论的核心特征;进而,我们将展开比较分析,严谨评估它们各自对人工智能复杂伦理图景的解释力与贡献。

2.1 AI中的工具主义:价值中立且可控
工具主义观点主张:AI系统本质上是为实现特定人类目标而设计的中性工具。在此框架下,一切技术实体——无论是一把普通的锤子,抑或高度先进的人形机器人——均被视为本身不具内在道德价值的器具;伦理评判的关键在于技术被如何使用(Norman, 2013;Pitt & Casasanto, 2022)。这一概念引出了“技术物的双重用途”(dual use of technological artefacts)命题,强调技术既可被用于道德上建设性的目的,亦可能造成危害(Sundström, 1998;Pitt, 2013)。

从工具主义视角来看,人工智能(AI)被视为价值中立且可控的。其“价值中立”属性源于如下观点:AI系统与锤子等传统工具类似,本身并不具备内在道德价值;它们仅是为实现特定人类目标而设计的中性器具。根据工具主义,道德评判取决于技术的应用方式,而非其内在本质(Peirce, Morris & Hall, 2013;Bannen, 2018)。

既然AI被视作服务于人类目标的工具(Almánzar 等,2024;Bryson & Winfield,2017;Gellers & Gunkel,2023),那么对其的控制权便掌握在设计、部署与监督其功能的行为主体手中。此种控制不仅涵盖AI的技术层面,亦包括其使用过程中的伦理考量。工具主义强调负责任且合乎伦理的技术部署,承认技术物具有双重属性——既可产生积极影响,亦可能带来负面后果。归根结底,AI的可控性被视为确保其运行与人类价值观及社会目标保持一致的关键要素。

2.2 AI中的决定论:不可控且价值中立

以决定论视角审视AI,AI便被视作不可控价值中立的。其核心在于:决定论认为AI系统以一种预先设定、严格依循规则的方式运行。有学者将其描述为“人工智能中的无责任之权力”(Campolo & Crawford, 2020)。在此意义上,Ellul(1962)曾指出,技术遵循其自身内在逻辑,推动人类生活各领域的自动化与理性化(亦参见Prior, 2020)。奥古斯特·孔德(Auguste Comte)与赫伯特·斯宾塞(Herbert Spencer)等则持实证主义立场,主张技术依循自身法则独立推动社会发展。

AI系统的运行受算法与预设规则支配,极大压缩了自发性或真正自主决策的空间(Bimber, 1990;Heilbroner, 1994;Dafoe, 2015;Drew, 2016)。决定论在AI中的体现涵盖多个层面:对程序指令的僵化遵循、对意外情境的有限适应能力,以及真实学习或演化能力的匮乏。这一决定论框架引发了关于AI伦理的深刻诘问,尤其聚焦于其所谓“不可控性”与“内在道德价值缺失”问题(Kaiserfeld & Kaiserfeld, 2015)。其对社会历史进程的驱动作用亦不容忽视(Roland, 1995)。芒福德(Mumford, 2013)曾探讨技术对社会的影响,强调技术发展具有自主性与决定性,认为技术变革本身驱动社会转型。马克思主义技术观(Marx, 1867)亦主张:技术进步推动历史与社会变迁;在此视角下,由技术驱动的生产方式变革,塑造了社会的经济结构与阶级关系。

在决定论框架中,AI的不可控性源于其对预设指令与规则的刚性依从(Ceruzzi, 2005;Kaiserfeld & Kaiserfeld, 2015;Vallor, 2016;Davis, 2020)。在决定论式AI系统中,每一行动与决策均由既定算法预先决定,人类干预或引导的空间极小。系统遵循固定规则集,对给定输入做出可预测响应,却无法动态适应变化情境或突发事件。此类缺乏适应性与灵活性的特性意味着:一旦部署,决定论AI即在其预设结构内运行,极大限制了人类操作者对其决策过程实施实时控制或影响的能力。这种不可控性植根于系统内在设计本身——该设计优先保障可预测性规则依从性,而牺牲了对具体情境进行细致、灵活调整的可能性。

2.3 AI中的实体主义:不可控且价值负载

将实体主义(Substantialism)应用于AI,即主张AI既是不可控的,又是价值负载的。该观点汲取亚里士多德、柏拉图、笛卡尔与洛克等哲学传统之灵感,认为AI系统如同独立存在的个体对象,拥有内在且独立的本体,其存在性不依赖于与其他实体的互动或关系。此立场进一步主张:AI系统具有一种根本且恒定的本质(essence),该本质定义了其本性,不受外部影响或关联所左右。

当实体主义被用于理解AI时,即意味着AI系统内在承载着丰富的价值,其运作亦深刻受这些嵌入性价值所塑造。因此,实体主义对“人类可完全控制AI”这一观念提出挑战,强调价值已渗透至这些智能系统的核心(Pasquale & Cockfield, 2018)。

在实体主义中,“价值负载性”指AI系统在其根本本质中本身就内嵌了价值。与中立或价值中立立场不同,实体主义主张:AI——如同任何具有持久本质的对象一样——反映并依循这些内嵌价值而运行。这意味着,AI系统的核心即由价值所塑造,使其本质上成为价值负载的实体。因此,若试图全面控制AI,不仅需应对技术本身的复杂性,更须直面深植于其结构中的内在价值

从AI实体主义视角看,其“不可控性”源于如下主张:AI系统拥有内在且独立的本质,超越外部影响或人为操控的企图。这种内在本性——呼应实体主义哲学传统——意味着AI依循自身内部原则与价值运行,使人类实现完全控制成为极富挑战性的命题。

实体主义最有力地支撑了“AI作为有意识、独立于人类的实体”这一观点。它将AI视作一个具有独立存在与自主发展能力的实体,类似于通常与意识相联系的“自主性”。通过主张AI系统拥有固有且不变的本质,实体主义契合了“AI可脱离持续人类输入而独立存在”的观念——即AI可如具备内在本性的意识体一般,依其内嵌原则与价值观自主演化与运作

实体主义下AI的“持久本质”,亦暗示其存在与发展具有一种不完全依赖人类干预的连续性。这与“意识”或“独立能动性”的构想相呼应:即一个实体拥有内在同一性,并遵循其自身的成长与演进轨迹。需强调的是,此处对“意识”的类比并不要求AI具备感受性(sentience)。实体主义为理解AI提供了一种概念框架——即AI是一种自我维系的实体,能够依自身条件展开与调适。

然而,纯粹形而上学的实体主义存在局限:它聚焦于抽象概念与理论,却忽视了人工制品(如AI)的价值嵌入性等实践关切。为弥合此鸿沟,讨论必须纳入“人工制品及其内在价值”这一核心理念——此乃理解AI价值负载本质之关键。人工制品(包括AI系统)不仅是抽象存在,更是人类创造的产物,对社会产生切实影响。要把握AI的价值负载性,必须审视社会价值观、偏见与意图如何被编码进其设计、开发与部署全过程。

承认人工制品及其嵌入价值的作用,有助于我们更深入地理解AI技术的伦理、社会与文化维度及其对人类的影响。因此,将抽象的形而上学论述与实践关切相联结,对于全面把握AI的价值负载本质至关重要。

2.4 批判理论视角:价值负载且可控

将批判理论应用于人工智能(AI),意味着对AI系统的社会、政治与经济意涵进行细致而深刻的审视。该进路植根于20世纪早中期兴起于法兰克福学派的批判理论传统,旨在揭示并批判嵌入AI技术中的权力结构、社会规范与意识形态(How, 2017;Bilgin, 2023)。

批判理论主张:技术并非中立,而是映射并强化既有的权力关系、偏见与不平等(Feenberg, 1991;Lindgren, 2023)。由此延伸,当以批判视角审视AI的设计、部署与社会影响时,理论家致力于揭露隐含预设、挑战压迫性结构,并倡导更公平、更正义的技术发展路径。该视角强调:必须提升社会意识、纳入伦理考量,并积极推动多元声音参与AI系统的塑造,以减少潜在危害,构建更具包容性与民主性的技术生态。

批判理论指出:AI本质上是价值负载的,因其与主流社会价值观、规范及权力结构紧密交织(Waelen, 2022)。AI技术的研发与实施深受其创造者群体的立场、利益与偏见所影响。用于训练AI系统的算法与数据集,往往映射着社会固有的偏见与不平等,从而延续甚至放大既有价值体系。此外,关于“AI应解决何种问题”以及“应如何运作”的决策,亦由主导其发展的个人与机构的价值取向与优先事项所塑造。简言之,批判理论强调:AI系统所承载的价值,与其被构想和部署的社会—政治语境高度一致,因而既可能强化、也可能挑战既有规范与权力关系(Berry, 2015;Lindgren, 2023)。

尽管批判理论坚持AI内在具有价值负载性,但它并不主张AI在原则上不可控;相反,它承认:对AI系统的控制取决于有意识的干预与系统性变革。批判理论家倡导一种参与式、民主化的AI研发与治理路径——在其中,多元的声音与视角共同参与决策过程。通过在AI的研发与应用中促进透明性、问责性与包容性,人类便有可能对嵌入系统中的价值施加一定程度的引导与修正。其核心理念在于:经由批判性反思、伦理考量与包容性实践,我们能够影响AI的发展轨迹,缓解有偏价值所带来的负面效应,从而在契合社会公共价值的前提下,切实提升对AI的可控性

下表1简明概括了工具主义、决定论、实体主义与批判理论在人工智能语境下的哲学立场。各视角对AI可控性及AI系统是否具有内在价值的立场,分别以“Y”(是)和“N”(否)标示。

打开网易新闻 查看精彩图片

在梳理这些哲学立场的复杂内涵之际,我们得以深入理解关于AI本质、人类对其可控程度,以及可能内嵌于或受这些技术实体影响的价值观念的多元主张。这些视角共同构成了一幅全面图景,呈现了塑造我们对“人–AI关系”认知的哲学框架体系。下一部分将在我们核心关切——伦理的自动化(the automation of ethics)——这一语境下,对上述理论展开评估。此一探究由“公平”“正义”“良善”等精细概念所触发,进而引向一项关键反思:是否可能、以及在何种意义上,可赋予AI系统以理解、适应并参与人类实践与经验之动态文化复杂性的能力(Birhane 等,2022;Munn,2023)。

2.5 四种哲学立场在“自动化模糊性”问题上的评估

工具主义、决定论、实体主义与批判理论这四种视角,为理解人工智能、价值与可控性三者之间的关系提供了各具特色的分析透镜。下表2对这四种立场各自的优势与局限进行了批判性评析:

打开网易新闻 查看精彩图片

工具主义主张AI具有价值中立性,将其视作一种中性工具,其伦理意涵取决于使用方式。尽管它强调可控性,但潜在不足在于可能忽视其应用过程中所嵌入的价值。决定论认为AI不可控,其行为由算法决定而具有可预测性;它承认算法中蕴含内在道德价值,但可能低估人为干预与控制的潜力。实体主义主张AI既不可控又价值负载,认为其拥有一种独立于外部影响的固有本质;此观点在使AI适应不断演化的伦理标准方面可能面临挑战。批判理论则认为AI虽价值负载,却强调可通过包容性、参与式的路径实现对其控制;它倡导积极干预与系统性变革,以推动合乎伦理的AI发展。

关于AI中“模糊性”的自动化问题,批判理论尤为突出。通过倡导多元视角与社会公众的积极参与,该理论为承认并应对AI系统中的模糊性提供了可能。此立场契合一种理念:可控性意味着持续的参与与调适,因而特别适于处理AI所涉及的精细而模糊的伦理维度。

批判理论承认“公平”“正义”“良善”等伦理概念所具有的精细性与主观性;它超越了决定论或工具主义视角,深刻理解到:这些伦理考量深深植根于动态的、文化情境化的人类实践、互动与经验之中。通过倡导包容性与参与式路径,将多元利益相关者纳入AI伦理发展的全过程,批判理论促进了协作,并推动与不同观点的对话,从而有助于更全面地把握复杂的伦理图景。该路径亦契合如下认知:伦理价值并非固定不变,而是随时间演进,反映社会现象学层面的变迁(Mickunas & Pilotta, 2023)。

综上所述,批判理论通过推动持续反思、适应性与对AI动态伦理维度的回应能力,提供了一种独特的视角。这与将AI刻画为僵化且不可控的决定论观点形成鲜明对比。本质上,批判理论倡导一种具有社会意识、参与性且灵活的AI伦理自动化路径,承认技术与人类多元现象学经验之间错综复杂的相互作用。这一观点使我们得以理解:不同群体与个体,基于其在社会权力结构中的具身化位置(embodied position;Newen, De Bruin & Gallagher, 2018),如何被独特地影响,并如何以差异化的方式为AI设计与开发中的意义建构作出贡献。因此,这种影响的多样性直接塑造着文化实践、知识与文化叙事的持续建构,最终决定着人们能否在数字未来中包容性地行使能动性(inclusive exercising of agency in digital destinies)。

  1. 对AI的“问题化”:究竟是什么导致了人们对AI“失控”的感知?

AI伦理中的每一种立场,都为我们理解AI所带来的挑战提供了独特洞见。然而,当我们严肃而批判性地审视“AI失控”这一主张时,一个关键面向浮现出来:它远不止于一种描述性陈述。“AI失控”这一说法固然试图揭示新兴技术的某些事实——例如报告其当前发展阶段,以及它对我们生活产生的现实与潜在影响;但更重要的是,该主张本身即具评价性(evaluative)。它是一种对AI在当下历史节点之存在的判断,并旨在评估其所带来的潜在社会文化风险。在此意义上,宣称“AI失控”,即是将其建构为一个问题(cast it as a problem)。

正如本节将要阐明的:将AI“问题化”(problematizing AI),使我们得以揭示那些参与制造此类叙事的社会力量——它们如何通过批判理论的视角,塑造我们对AI的规范性反思,并限定我们眼中哪些路径才算是实现控制、秩序与矫正的“正当”方式。

3.1 论“问题”

人们或许习以为常地假设:“问题”独立于那些识别它们的主体而存在——即,某一问题的存在与否,并不取决于它是否被如此感知。例如,我们可能认为:气候变化是一个问题,即便有不良行为者竭力试图说服我们相反的结论。

与此相对的,是一种更为彻底的社会性问题观:它强调,使某事物成为“问题”(或被视为“问题”)的,正是特定的社会实践。这正是米歇尔·福柯(Michel Foucault)所称的问题化(problematization)。对福柯而言,“问题”与其他诸多社会生活现象并无本质不同——以这种方式被感知的“问题”,背后皆有其历史叙事。“某事之所以成为一个问题,乃因其被刻画、分析并如此对待”(Foucault, 1988)。

需强调的是,福柯的目的并非否认:世界上某些现象在“心智独立”意义上确属棘手或具争议性——例如,无论我们是否在意,气候变化无疑是一严峻现实。他的关切在于:我们将某事“视为问题”这一行为本身,已携带着特定预设。当我们把某事物表征为一个问题时,我们已在隐含地传达关于该思想对象之本质的理解,以及我们自身主体性(即“我们作为何种人”)与该问题之间的关系。这概念虽抽象,但可通过实例加以阐明。

福柯学派学者主张:“问题”是社会实践的产物,而非行动者有意识地界定某事物为问题的结果(Bacchi, 2015)。最著名的例证是福柯关于“疯狂”(madness)的研究(1961/2006)。所谓“疯癫者”曾长期被以排斥方式对待——他们被逐出社会,最终被纳入医学话语体系;而该话语体系偏爱特定类型的心智模式,视其他为异常。这种医学话语支持将“疯人”收容于精神病院,将其设定为医学干预的恰当对象,并将其建构为有待治疗矫正的“偏差者”。这些独特实践揭示了“疯狂”是如何被问题化的:即“发疯”如何被视作一个问题,以及该问题被认为应以何种方式“解决”。此外,通过这些实践对问题的表述,某种特定的主体性亦被建构出来:“疯人”由此被生产为存在的对象,成为医学知识的客体——他们成了我们必须理解、修复,并用以保护“正常人”的“他者”。此种人的建构,通过嵌入医学语境(如《精神障碍诊断与统计手册》第五版,DSM-5中对精神疾病的界定)而趋于稳固。这表明:问题化不仅制造“问题”,本身亦是一种“造人”实践(people-making practice)。

之所以值得对“问题化”过程进行反思,关键在于它对认知行为的文化塑造具有深刻影响——包括我们的行动动机与理由、习惯与情感倾向等。这一观点曾由波伏娃(Beauvoir, 1962)与安斯康姆(Anscombe, 2000)予以辩护,近年亦在具身认知科学领域得到深入探讨(Hutto, 2012;Varela, Thompson & Rosch, 2017;Newen, De Bruin & Gallagher, 2018)。

将某事物视为某种特定类型的“问题”,会对其对象的理解产生如下偏向性效应(biasing effects):(1)聚焦我们的注意力;(2)引导我们的探究路径;(3)塑造我们的解释方式;(4)结构化我们的推理过程;(5)依据我们所感知的显著性与合意性,组织我们的行动选项(Jones, 2019, p. 4)。

例如,若将气候变化界定为“人为的”(anthropogenic),那么问题显然便聚焦于人类——我们成了分析的核心,即“问题所在”。进而,这种聚焦促使我们反思:我们究竟如何成为问题?又能做些什么加以纠正?从而形塑了我们的探究路径。

然而,这一过程可能被某些利益集团所“劫持”。为保护其利润底线,责任并未归于温室气体排放的主要责任方(如大型企业),而是转向一种个体层面的问题化:即,作为能动主体的“我们”才是问题所在——源于我们日常驾车、乘机、食肉、忘关灯等行为。这种框架塑造了对问题的解释:即“人为性”仅被理解为个体消费者行为所致,而完全忽视了制约个体行动可能性的结构性条件。

由此,推理过程亦被结构化:若个体消费者是人为气候变化的根源,则个体消费者即为问题;而若个体消费者是问题,那么个体消费者便必须是解决方案。

最终,这限定了我们的行动选项:作为个体消费者,我们必须为保护宜居地球承担责任——我们必须减少飞行与驾车,或至少以某种方式抵消碳排放;我们必须购买太阳能板、随手关灯;我们必须减少肉类摄入等(Montgomery & Hipólito, 2023)。值得注意的是,这种思维方式与问题解释,天然导向市场化解决方案(如碳补偿、绿色消费),而非通过对大型企业实施监管(例如征收碳税或建立排放交易体系)来应对危机。

简言之,此类话语将特定主体性自然化(reifies particular subjectivities):它把个体消费者建构为“有待解决的问题”,却遮蔽了最具实质影响力的行动主体。

3.2 AI的问题化及其社会力量

回到本文所聚焦的具体议题:关于“AI问题”的当下认知格局,我们能从中获得何种洞见?如前所述,当代关于AI的 discourse 中充斥着“AI失控”的论断。最典型的例证莫过于近期一封公开信——呼吁暂停巨型AI实验六个月,该信由埃隆·马斯克(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)和尤瓦尔·赫拉利(Yuval Noah Harari)等人签署;马斯克本人甚至将现代AI的兴起形容为“召唤恶魔”。不难看出,AI在此类话语中已被明确问题化:AI之“问题”即控制问题;更确切地说,是AI在多大程度上已——或正日益——超出人类掌控的问题。

关键问题是:谁是这一“问题化”过程的主要推动者?如前所述,对福柯学派而言,问题化是社会实践的产物。多种社会实践正发挥作用——通常是对物质性(权力)条件的回应——共同促成了将AI刻画为“失控”的叙事。

3.2.1 物质性

首先,生成式人工智能(GenAI)正日益生成深刻渗透日常生活的有意义内容,例如大型语言模型(LLMs),以及用于社交媒体平台(如TikTok)内容个性化推荐的技术。然而,GenAI生成内容的能力受限于其决策过程的不透明性——这通常被称为可解释性问题(xAI)、AI决策的“黑箱”问题(Xu 等,2019;Carabantes,2020;Minh 等,2022;Albarracin 等,2023;Dwivedi 等,2023)。本质上,开发者与研究者面临的核心困境在于:无法阐明或完全理解AI系统在生成具体输出时所依赖的价值取向或变量。换言之,我们尚不(或无法完全)理解某一输出是如何产生的。

当然,实践中存在一定程度的可理解性——足以使用户(如社交媒体使用者)对算法生成内容施加某种控制。这一点从用户普遍发展出“算法关系”(algorithmic relationships)可见一斑:他们通过特定互动方式“调校”算法,以稳定生成其所期望的内容(并可选择跳过不感兴趣内容)。而这一切,恰是在对“黑箱”内部运作机制缺乏彻底认知的前提下实现的。

AI技术普遍存在的操作性不透明,使其极易被表征为“失控”。倘若人对AI拥有“控制”,则意味着其理解:在何种条件下,操控AI内部某些要素即可可靠地产生预期输出。若缺乏此种理解,则除彻底弃用该技术外,人类几无有效控制手段。因此,鉴于当前AI技术仍属“黑箱”,人类尚无法实现控制——且受制于认知能力的固有局限,这种控制可能永远无法达成。由此引发合理忧虑:若将AI技术投入使用,其社会后果或许根本不可知;其非预期后果可能偏离乃至背离我们的目标,更甚者,在长远中对人类造成伤害。

然而,必须区分“完全失控”与“未达完全控制”。未能彻底把握AI运作机制,并不意味着我们对其运作全然无知。我们或许无法完全理解某算法的全部过程,但仍有足够控制力可对其设计、使用与输出施加塑造——例如:有意识地设计算法以颠覆性别规范(Hipólito, Winkle & Lie, 2023),或赋能代表性不足的社会群体(Birhane 等,2021;Birhane,2022)。

这种控制可体现为:主动退出使用,或通过监管干预其设计与部署。尽管这并未涉及对AI“黑箱”内部过程的直接操控,但它清晰表明:在回应物质条件的社会协同实践层面,控制实则可行。“失控”叙事恰恰遮蔽了AI实际上可被控制的程度

然而,遗留的问题是:当前可用的控制程度,是否足以证成将AI大规模嵌入日常生活?换言之,我们能否对AI的长期输出抱有足够信心,从而将其“释放于野”?对此并无普适答案。AI技术形态多样,其可控性高度依赖具体技术类型及其应用领域(例如社交媒体平台算法 vs. 大型语言模型)。因此,围绕AI的规范性问题必然是情境依赖的;对AI在所有领域中的可控性持一概而论的怀疑态度,实属不当(Birhane,2021;Munn,2023)。

3.2.2 隐蔽的权力关系

各类不平等深刻影响着AI的存在方式及其被建构为“问题”的过程。事实并非如此:即社会各群体通过审议性、参与式的民主程序,共同商讨诸如ChatGPT是否应被引入社会生活各领域——尤其是教育系统——的问题。相反,AI的生产者往往持有特定利益诉求,通常以利润为驱动——此即所谓市场驱动型创新(market-driven innovation;Chaston, 2017)。普遍存在的经济不平等,在决定“谁有权主导AI技术的创造”以及“技术在多大范围内被普及”方面起着至关重要的作用(Birhane 等,2022)。这种不平等不仅源于富裕家庭凭借继承财富获得投资技术(如马斯克)的先机,更源于教育成果分配不均——某些群体(因性别、种族等结构性障碍)被系统性推入或排斥于科技行业之外(Eynon, 2024)。

此类不平等导致科技行业中特定声音与视角被过度代表,从而产生整体性的“诠释学效应”(hermeneutical effect)。其一表现为:AI技术研发中偏见风险显著升高(Broussard, 2023;Miric, Yin & Fehder, 2023;Tellhed 等,2023)。然而,对我们而言尤为关键的诠释学效应在于:AI相关叙事的建构权分配不均。设问:围绕AI技术的叙事建构,是否在全社会范围内均衡分布?答案显然是否定的。

例如,“AI是否对人类‘有用’”这一问题的答案,并非经由公共理性辩论得出,而是由具有盈利动机的群体通过广告宣传与市场支配地位向我们“兜售”的。这揭示了社会动态层面的隐蔽权力关系:不仅AI技术由少数特权群体制造与维系;更重要的是,这些特权者从根本上塑造了我们应如何思考AI——尤其是如何将其视为一个问题

这一核心思想在“无知认识论”(epistemologies of ignorance)框架中得到了最佳表述(Sullivan & Tuana, 2007)。无知往往并非单纯的知识偶然缺失;相反,它是特定社会实践与制度有意建构并维系的结果。这意味着:认知缺失并不仅仅源于个体在求知德性上的失败;而是其所处的社会环境,使某些认知方式变得广泛可及且被赋予权威地位,进而巩固了既有秩序。

例如,查尔斯·米尔斯(Charles Mills, 2007)提出的“白人无知”(white ignorance)概念,指的是一种认知结构:它被设计为仅使特定经验——即白人的经验——具备公共可理解性;而其他群体的经验则被遮蔽或普遍忽视。这种无知具有深远的社会后果。

在澳大利亚,存在一种主流叙事:该国仅在250年前“被发现”,此说法构成了民族自豪感的基础。然而,这一叙事刻意无视了一个事实:原住民已在澳洲大陆生活了约六万年(Rademaker & Rowse, 2020)。泰勒与哈比比斯(Taylor & Habibis, 2020)强调,“白人无知”对种族关系具有关键影响,并在延续原住民弱势地位中扮演核心角色。他们基于对达尔文地区44位原住民所进行的180次深度访谈,揭示了原住民对白人澳大利亚人在历史、法律、文化及语言等方面普遍无知的切身感知——这挑战了关于“谁的无知需被纠正,方能推进民族和解、正义与平等目标”的既有预设。

忽视这一事实对白人澳大利亚人的自我认同至关重要:毕竟,若承认自身属于一个实施种族灭绝的殖民者谱系,将严重损害其骄傲的自我评价。而一旦正视该事实,则必然须接受其重要的规范性意涵:正义要求我们回应历史性的压迫。因此,人们有系统性偏好的理由,去维系并投资于这一无知的白人叙事。

由于白人在塑造人类存在之叙事方面掌握更大权力,而AI作为人类存在的产物,其叙事控制权亦必然不均等地分配。那么,究竟是谁在建构“AI失控”这一叙事?回看本文开篇所引例证便不难察觉:

  • “人工智能是否正在失控?”(《卫报》,2023)
  • “AI正失控,并造成代际鸿沟”(《商业内幕》,2023)
  • “如何解决‘失控AI’这类问题?”(《麻省理工科技评论》,2023)——主导此类叙事的,正是西方主流媒体

普通的AI使用者往往无机会自主建构关于AI的叙事。部分原因在于:要全面理解AI,对外部人士而言实属艰巨任务——它横跨多重学科与技术领域,即便对密切追踪其发展者而言亦极具挑战。正因如此,大众不得不从其所认定的“可靠信源”处继承(inherit)关于AI的叙事。然而,对“信源可靠性”的判断本身,亦是不公正权力关系运作的场域。一个信源或许具备标示可信性与专业性的“指标特征”(indicator-properties),但这些表征未必真实对应其可信与胜任(Fricker, 1999;Myllylahti & Treadwell, 2022)。

以新闻广播网络为例:它们曾(被视作)全球时事信息之可靠性巅峰,其权威植根于(被认定的)新闻职业操守美德。然而,尽管职业操守始终与经济利益存在张力,在意识形态压力下,经济利益已愈发占据主导——目标日益转向提升收视率,而真实性则退居次要。如今,新闻播报常迎合不同政治阵营,如美国的福克斯新闻(Fox News)或CNN;其中部分媒体持续传播错误信息(misinformation)、虚假信息(disinformation)与恶意信息(malinformation)(Asano, Tago & Tanaka, 2023)。

此类操作之所以有效,部分正源于其历史积淀所赋予的“可信、专业”公众印象。而“表征可信性”与“实质可信性”之间的错位,恰是结构性无知得以建构、权力得以维系的关键机制之一(Roslyng & Dindler, 2023)。

至于“AI失控”叙事是否同样受此类逻辑驱动,尚存争议(Beer, 2022)——即:当前AI技术的“问题化”是否确由资本利益所驱动,并非一个显而易见的问题。我们倾向于认为答案是肯定的,但本文暂无余裕深入探讨。然而,我们坚信这是值得后续追索的重要议题。

此外,关于该叙事的广泛流行,另有一关键点可从批判理论视角加以阐明:AI并非如主流媒体所呈现的那样——作为“独立于人类的实体”而失控。因此,我们这个时代真正紧要的问题是:为何此叙事竟成为主导?

部分原因或许在于:报道所谓“不可控AI问题”的媒体机构,借由发出“AI失控”警报,即可标榜自身具备“可信性与专业性”,却无需真正履行对AI可控性问题的审慎分析义务。此处并非指控这些媒体在蓄意撒谎(Hawkman & Diem, 2022),而是指出其在“尽职调查”层面存在系统性缺失。其成因可能包括:既得利益驱动、收视率维系与增长压力、 sensationalism(耸动渲染)、恐慌文化蔓延,以及认知误解等。

无论具体原因为何,显而易见的是:AI叙事的传播权高度集中于这些媒体机构手中——而这一权力,尽管已催生“虚拟大规模虚假信息、算法暴行与合成式宣传”(Garon, 2022),却既未被负责任地行使,亦未受到有效问责。

3.3 为何“失控”式的问题化本身即构成一个问题?

问题不仅在于不公正的权力结构本身。当媒体机构传播一种缺乏正当依据的问题化叙事时,它会引发广泛而系统性的无知(Nguyen, D., 2023;Weiser & von Krogh, 2023)。公众消费并内化这一叙事;经由文化习得(enculturation)过程,该叙事进而塑造日常思维,并产出生理认知与情感层面的特定后果(Fingerhut, 2021;Menary & Gillett, 2022;Miyahara & Tanaka, 2023)。

重申前文:问题化叙事具有五重偏向性效应——(1)聚焦我们的注意力;(2)引导我们的探究路径;(3)塑造我们的解释方式;(4)结构化我们的推理;(5)依据我们所感知的显著性与合意性,组织行动选项。

而当这一机制被施加于一种缺乏理据的问题化叙事时,其后果是:我们错失了关注真正具有社会相关性议题的机会,无法探入富有成果的研究方向,难以形成有益的解释,难以作出正确推论,亦无法拓展更具建设性的行动可能性。以下将此分析具体运用于“AI失控”叙事:

(1)注意力聚焦:“失控”叙事以特定方式引导我们关注AI——它使技术本身(而非技术所嵌入的社会世界)成为我们(误)理解的焦点。由此,我们被引向一种技术决定论式的AI解读:仿佛AI自行其是,而人类几乎无力阻止。若再叠加实体主义视角,叙事更显“丰富”:AI不仅在决定论意义上不可控,更被赋予内在价值(甚至可能是我们应当加以保护的价值)。

(2)探究方向引导:该叙事框定了我们的研究进路——分析起点即预设了AI的决定论属性,从而遮蔽了AI中本可控制的面向。我们的问题意识被锁定在“AI为何失控?”(及其价值意涵)之上。

(3)解释框架塑造:在此前提下,我们更易采纳某些特定解释:倾向于对AI在人类世界中的角色持警报式悲观主义立场。此类解释可能包括:→ 预言一种本意助人、却因超人类智能而终致人类毁灭的全自主AI;→ 或较温和版本:AI必然传播虚假信息、侵蚀消费者隐私、或全面自动化劳动岗位。

(4)恐慌文化:上述警报性与悲观性解释进一步结构化我们的推理。假设我们将AI理解为一种决定论技术(即独立于人类的实体),其发展终点似乎不可避免地导向对人类价值与实践的颠覆,乃至文明存续风险——那么,我们便必须“立即行动,加以阻止”。然而,恐慌文化反而将我们推入困惑与绝望之境:它不仅宣称“这是个问题”,更将其升格为“当今人类面临的最严峻挑战——如果不是最严峻者”。

(5)行动选项组织:当此事被建构为“人类亟须立即应对的最大问题”时,我们的行动选项便被按“合意性”重新排序。技术决定论解读及其所渲染的威胁,导向如下政策主张:→ 必须暂停AI研发;→ 或对其创造过程与社会嵌入实施严厉监管。

——这些方案看似“紧迫而必要”,实则可能转移了真正关键的监管焦点:即谁在控制AI?依据何种价值?如何通过民主参与重构控制权?换言之,“失控”叙事通过制造技术奇点式的恐慌,掩盖了现实中的权力失衡与制度缺位,从而阻碍了更具结构性、公平性与参与性的治理路径之生成。

我们需强调:前述(5)中所列举的应对方案(如暂停研发、加强监管)本身未必不当;我们关切的是——此类方案是如何被推导出来的。其间存在一种奇特的张力,近乎逻辑不一致:一边宣称“AI已失控”,一边却提出诸如暂停或监管等预防性对策。倘若AI果真失控,那么暂停或监管其发展岂非徒劳?我们认为,这种矛盾恰恰揭示了“围绕AI的焦虑表达”与“控制权政治”之间的深层关系。

问题并不在于科技行业真正接受了“AI失控”这一命题;而在于,该叙事正被强力植入公共话语,以服务于一个目的:正当化“谁应当掌控AI”这一权力分配。重申一点:普通公众对AI运作机制知之甚少;除在某些情境下选择是否使用外,他们在AI开发中几无实质控制权。而当AI被同时呈现为:① 人类演进进程中“不可避免”的组成部分,② 却又构成“生存性威胁”——便自然催生一种紧迫感:我们必须“掌控它”。鉴于普通用户既不了解其原理,又无法参与其创造,这一逻辑便导向一个结论:我们必须将控制权外包给他人。由此引发各方对控制权的争夺——而谁比那些自诩为“关切公共道德的科技专家”(如联署呼吁暂停巨型AI实验公开信者)更适合担当此任呢?

《欧盟人工智能法案》(EU AI Act)被赞誉为迄今最强有力的AI监管立法尝试(Almada & Petit, 2023)。然而,即便如此有力的框架也存在根本缺陷。Novelli 等(2023)批评该法案采用静态风险分类,可能导致风险评估失准与执法低效,尤以不可预测的通用型AI为甚;Laux 等(2024)则指出其对“可信性”的处理存在重大疏漏——法案将“信任”简化为“对AI风险的可接受性”,暴露了立法框架的关键缺陷。

更明确地说,我们有理由认为:“AI失控”叙事很可能被用作某种道德姿态表演(moral grandstanding):其真实意图是——在向政府机构让渡部分权力的同时,为科技行业持续掌控AI主导权提供正当性辩护。

必须澄清:AI并非真正“失控”——至少在任何坚实的形而上学意义上皆非如此。相反,AI始终处于控制之中;问题只在于:由谁掌控?

对AI在人类世界中角色的忧虑已浮出水面。为缓解这些忧虑,科技产业——在部分学者支持下——努力向公众证明:其已然拥有的控制权是正当的,且应延续下去。然而,若真存在所谓“AI失控”问题,那也仅在于:AI的控制权高度集中于少数特权群体之手。我们不禁怀疑:当前对AI的“问题化”过程,至少部分旨在维系并遮蔽这一权力失衡结构

此外,“失控”式解读还塑造了我们对自身身份的理解:多数人仅被视为AI的消费者,而非共同创造者;科技专家则被天然赋予开发主导权。作为消费者,我们被建构为亟需保护的弱势群体,而非参与民主审议、共同构想理想世界的行动主体;科技专家则被赋权为“公共利益的守望者”。此类主体性建构,进一步强化了AI研发与应用中的权力等级制——而这一等级制,遮蔽了诸多本可实现的替代路径,例如:以更具参与性的方式处理AI相关的公平、正义与良善问题,将用户定位为既是消费者,亦是共同创造者

进一步而言,这种“决定论/实体主义”式问题化还会产生一种“遮蔽性诠释学效应”(overshadowing hermeneutical effect):它淹没了其他紧迫议题——如种族主义、性别歧视、阶级压迫、气候变化等——或至少将这些问题强行纳入“失控AI”的框架下加以理解。我们不再直面结构性不公的根源(例如:殖民性种族灭绝与土地掠夺所导致的原住民高死亡率),转而聚焦于“自动决策中的种族偏见”。究其原因,在于AI被建构为“生存性威胁”,而此类威胁被赋予更高优先级——相较而言,“将土地归还给被不义剥夺者”便显得次要,因它不直接关乎白人的生存。令人忧虑的是:在为科技行业掌控AI开发权寻求正当性的过程中,该叙事整体上重新框定了普通人眼中“当今人类最紧迫问题”之清单。我们不禁担忧:这将如何影响认知资源、情感能量与经济投入的分配?——这些资源本应用于深入参与并解决一切紧迫的公平、正义与良善议题,而远不止AI本身。

  1. 系统内部的控制难题

批判理论揭示:人工智能(AI)实际上是可以被控制的,但我们却被引导着相信它无法被控制。“AI失控”的叙事阻碍了我们对如何真正实现对AI的有意义控制进行反思。那么,我们该如何达到这一认知节点?

控制AI,或使AI控制权民主化,是一个过于宏大的问题,无法在本文中全面处理。这可能涉及大量重新分配知识与生产机会的行动——将机会赋予那些历史上被边缘化或被忽视的群体,而AI的实施对他们而言却具有深远影响。这可能包括:在教育体系中增加边缘化社群的代表性,而该体系正是培养日后进入AI学术研究或相关技术领域、从事AI开发人员的摇篮;可能还包括加强政府对科技公司的监管;增加对学术界中“AI可控性”研究的财政投入;甚至在更深层次上,将AI“社会化”——将其视为一种公共产品,而非由科技公司私人占有并商品化的对象。我们无意在此解决这些实践层面的疑问;它们是、并将持续成为需要一个思想者共同体共同探索的开放性研究课题。

然而,我们希望强调的是:当我们在思考解决方案时,必须首先认识到,正是某种被预设的“问题化”(problematization)方式,赋予了这些解决方案以特定的框架和表面的正当性。这正是批判理论视角所致力于揭示的部分。

系统内部的控制难题,不仅关乎物质条件,更关乎一种公共话语的传播——即某种特定的问题框架被广泛散布,导致人们内化了关于AI的不正当认知方式,接受决定论(Determinism)或实体主义(Substantialism),而非批判理论的视角。因此,与其追问“我们能做些什么来控制AI”,我们认为更根本的问题是:“我们能做些什么,使人们认识到那种确实可能的AI控制形式?——即透过批判理论的透镜来看待AI。”唯其如此,我们才可能开启关于AI是否真正构成人类生存性威胁的新思考路径,同时也能更充分地认识AI在日常生活中可能发挥的积极角色。换言之,我们必须聚焦于正确的问题,探询富有成效的领域,做出有用的解释,形成准确的推断,并拓展更具建设性的行动选项。

我们主张,主流媒体——尤其是高影响力媒体机构——在报道AI时必须格外审慎:必须抵制煽动性的叙事,避免渲染AI可能对社会造成的危害及其对人类构成的“生存性威胁”所带来的焦虑。当然,这并非意味着AI不值得担忧;关键在于:我们必须精准把握AI究竟在何种意义上成其为问题——而这要求我们将其与“失控”叙事脱钩。AI的确可能构成真实的生存性威胁,但这种威胁并非源于AI“失控”,而恰恰源于它“处于控制之下”——只不过掌控者并非以公共利益为首要动机。有关AI控制的真实难题在于:其可控性本身仍受制于既有的权力结构——这些结构正是各种不公的根源;控制权高度集中于少数特权阶层之手,而这一事实却被掩盖着,并反过来维系着这种权力结构。

若我们希望建立对AI的民主控制,第一步便是抵制并解构当下流行的决定论与实体主义(参见第2节)式的“失控”公共叙事。这项工作无法单靠个体层面完成。我们当然可以进行某种“二人对话式叙事调节”(dyadic narrative-regulation),例如告诉他人:他们将AI理解为在强形而上学意义上“失控”,实属错误;但尚不清楚这类个体层面的策略能否对集体意识产生实质性影响。我们必须依靠集体性与制度性的努力:包括对传播此类叙事的媒体实施公正监管;改革教育体系,使其传授关于AI可控性的诚实课程;推动政府定期向公众通报新兴技术及其潜在影响;并鼓励有德性的科技公司不再以保护对其商品化产品的控制权为宗旨。这固然是一项艰巨的任务,但若想真正理解AI在我们当下生活中的位置,并使其在我们共同担责的实践中得以合理嵌入、伴随人类迈向未来,这一努力实属必要。

结论

我们对人工智能(AI)的探讨,挑战了那些将“AI恐慌文化”渲染为AI是一种不可控实体的耸人听闻之说。本文所引入的理论框架,以“可控性”与“价值负载性”为核心,厘定了四种截然不同的本体论立场:无价值工具主义(Value-Free Instrumentalism)、决定论(Determinism)、价值负载的批判理论(Value-Laden Critical Theory)以及实体主义(Substantialism)。我们主张:人们对AI“失控”的感知,并非源于其本身具有某种决定论式的、独立自存的本质,而是植根于复杂的社会—文化权力动态之中。

尤为关键的是,我们的论点强调:从原则上讲,AI是依赖于心智(mind-dependent)且可被控制的;然而,其“失控”的表象却与它被构想与实施其中的社会—文化语境紧密交织。当前系统自身的结构性特征,使掌控AI的努力变得尤为复杂,因而亟需对该系统本身进行深刻的变革。

当我们思考人工智能(AI)的社会影响时,超越决定论与实体主义的视角便显得尤为紧迫:因其对AI“心智独立性”的错误预设,阻碍了有效的控制与监管措施的实施。本文主张转向一种价值负载的批判理论(Value-Laden Critical Theory),该视角承认社会—文化动态对AI“可控性”认知所产生的深刻影响,并强调其相应的责任归属。我们呼吁包括媒体机构、教育系统、政府及科技公司在内的各方利益相关者,共同致力于重构围绕AI的公共叙事。

未来研究的一个潜在方向,是制定相应策略,以应对媒体中偏颇叙事的广泛渗透以及AI不受约束的发展态势。这包括:

  • 倡导在媒体平台内部推行公平的监管机制,以遏制偏颇叙事的传播;
  • 将关于AI可控性的坦诚讨论纳入教育体系;
  • 确保政府持续向公众通报新兴技术的潜在影响;
  • 推动科技公司践行合乎伦理的实践,使其优先考量透明度与社会福祉,而非一味捍卫其商品化产品的私有控制权。

此类综合性进路,契合对权力动态与社会结构的批判性视角,有助于在技术演进与传播过程中,培育一个更具反思意识与责任担当的环境。

综上所述,本研究为未来深入探讨AI与社会之间错综复杂的交汇点奠定了基础。通过持续挑战既有范式,并倡导对AI实施更具民主性的控制,我们致力于推动一种未来愿景:在此愿景中,技术进步得以与人类的知识、文化及叙事和谐共进。

原文链接:https://www.researchgate.net/profile/Ines-Hipolito-2/publication/380892710_Beyond_Control_Will_to_Power_in_AI/links/6653d408479366623a164e0f/Beyond-Control-Will-to-Power-in-AI.pdf