阿淮学姐说:这是⼀篇思辨性很强的论⽂,对于算法与权⼒、⽤户在算法社会中的能动性等⽅⾯的探讨能够提供⼀个新的视野,同时⾥⾯也有⼀些可以⽤来答题的素材和理论。总⽽⾔之,这篇论⽂只需借鉴可借鉴的,弄懂⼤意即可,⽽不必要求每⼀句都能读懂。」


‍♀️ 思维导图

‍♀️ 控制社会的到来:一个德勒兹的世纪

(一)规训社会下偷猎作为弱者艺术

边沁(Jeremy Bentham)的全景敞视建筑(panopticon)是这样一个建筑学形象——瞭望塔的监督者可以看到四周囚室里面的动静,而囚室中的人因为逆光效应,无法看到塔里人的情况。建筑中一种宽泛的权力通过层级网络、监视、观察和描写等方式产生着秩序,这些秩序能够避免混乱。

全景敞视模式在瘟疫流行的城镇能够被彻底贯彻,那它又如何传遍整个社会机体?福柯描述了两种规训意向,一端是“规训—封锁”,即一种强调消极功能的封闭体制,正如瘟疫城镇所实施的那些企图阻止灾难、切断交流、冻结时间的措施;另一端是“规训—机制”,后者是“一种通过使权力运作变得更轻便、迅速、有效来改善权力运作的功能机制,一种为了实现某种社会而进行巧妙强制的设计。从一种异常规训的方案转变为另一种普遍化监视的方案,是以一种历史变迁为基础的:在十七和十八世纪,规训机制逐渐扩展,遍布了整个社会机制,所谓的规训社会(姑且名之)形成了”。

权威机构所建立的模型自上而下地操控着教育,赋予社会以特定的文化,确保一套稳定运行的生产、重复、检验体系。但在米歇尔看来,机构和权威所建立的独断秩序是可以进行重构的,他将注意力集中在细微的游戏空间中所存在的那些不易被察觉的抵抗战术。

在德塞托对日常实践的解释中,隐含的话语背景之一便是“强者”与“弱者”的权力关系。“强者”是文化秩序、发展规范、社会文本的主要生产者,主导了城市规划、工业、商业、电视传播的主要形式。在“强者”的生产逻辑下,他们假设消费者自身不具备创造性,公众被强加给他们的产品所塑造,是日常生活实践中的“弱者”。
(学姐提示:德塞托这个观点是⽐较适合⽤来驳斥消极受众观的,⽽且“偷猎者”等表述也可以⽤在答题⾥)
德塞托的魅力在于,他并不认为生产的极权扩张必然伴随着消费的颓败,相反在极权性的社会信息生产系统之外,还存在另外一种生产,这种生产是来自消费者的不易被察觉的匿名创作。为了理解这种被埋没的活动,德塞托用“书写—阅读”代替“生产—消费”,书写是生产的文本,阅读则是读者在既有文本中进行意义和文化的再创作。读者并非要将作者取而代之,而是像“偷猎者”那样,将自身创造渗入到文化的正统性生产中,这是弱者利用强者提供的文本资源实现自治的一种艺术。

德塞托所说的“弱者”并非是真的弱者,它只是在显性的生产方式上不掌握主导权的读者而已,而在那些看不见的领域和地方,读者正在创造着自己的世界。就像他举例的那样,城市的布局、地标、驾驶规则属于战略,个人不能在物理上重组城市,但是他可以选择以何种方式穿过城市——走捷径、漫无目的地游荡、穿过最喜欢的路线——都属于战术。那么,我们在这里是否可以假设,当昨日“弱者”获得某种生产主动性时,就可以改变偷猎者身份,发掘更多的隐藏在普通人身上的意想不到的资源。

(二)监视研究中的底层战术

福柯的规训社会形成于十七、十八世纪,并且在二十世纪达到了顶峰,德勒兹进一步扩展了福柯的理论。他认为禁锢场所的普遍危机在二战后得到强化,旧有的在封闭系统中运作的规训模式正在被那些看起来自由的、超快捷的形式取代——工厂让位给企业,医院让位给日间医院、上门治疗,学校教育让位给零散培训,规训社会中的禁锢环境(工厂、学校、医院、监狱)“最先表现出了新的自由,但同时也就加入了堪与最严酷的禁锢相提并论的控制机制”。福柯所认为的从主权社会向规训社会的转向,在德勒兹看来正在发生再次转向,即由规训社会转向控制社会。

算法生产的控制战略

(一)算法社会自由幻象的搭建:重预测、弱空间、强分体

技术无处不在,而且并不总是作为“自由的敌人”出现,某种视角下,甚至可以担任“解放者”的角色。算法技术便是这样一种技术,它进入了我们的生活,帮助我们看到和感知可能错过的意义世界,为我们带来了“便捷”。算法总是能为我们提供及时的服务,这种自由世界的搭建,得益于算法强大的生产战略。

1.从等级观察到数字化预测

算法社会,规训时期的等级观察逐渐瓦解,数字化模拟和计算褪去了强制的外衣,算法通过数字化模拟的手段,实现对被试者的观察。这种观察形式往往在后台完成,没有明显的组织形式,被观察者甚至很难察觉。算法的观察模式还表现为“先发制人”。

规训社会的观察往往是对当下以及过去时间的观察,而控制社会则是对当下及事件发生前的观察,算法通过获取用户信息,以此为依据来激发事件,预测用户的偏好与行为。在用户行动发生之前就可以预测行动,算法的观察模式不是关注空间中的物体,而是那些特定的能够反映用户行为的代码。因此,规训社会关注可见与不可见,控制社会则对被观察者的欲望、需求和意图更感兴趣。

2.从空间划分到时间填充

算法社会第二个生产战略体现在空间的弱化,行动越来越具有流动性。算法社会施加控制的工具是信息机器,促使代码空间的流动更加有序化、合理化,空间边界被打破融合成为一个无边的网络,机构之间的分界消失。在这种社会形态中,越来越多的具有明确起点和终点的片段被常规训练所取代,所有的主体时间成为同时受到各种形式训练的大片段,“企业、培训、服务是同一调制的可转换和并存的状态,如同一个万能变型器的可转换和并存的状态”。

脱离了透视空间,算法投射到电子屏幕,个人需求被24小时的过问与满足,用户获取的不仅是几代人积累的知识与智慧,更是从有限的屏幕中获得无限的空间和时间。规训主要在空间维度运作,有实体的物理场所,是一个静态系统,而控制则是动态的过程,在速度或时间维度运作。算法社会,空间的区隔变成了“时间的填充”。

3.从普遍的个体到特殊的分体

算法对主体身份的生产产生了直接的影响。传统的信息操作与检索逐渐被自动化程序取代,而且数字计算的复杂性远远超过了人的能力,知识生产越来越多地由数字化的计算程序和系统完成,权力规训模式中的专家(the expert)变成了从属于其的管理者的角色。知识生产与消费进一步进入人们的日常生活,使得规训社会普遍的个体,在今天逐渐成为了德勒兹所说的分体(dividuality)。个体(individual)与分体(dividual)的区别体现在目标的差异。规训“制造”(make)个体,将个人视为对象与运转工具,而算法的调制模式并非要实现对个体的管理,而是更多地参与流动的产生和预期,因此,算法不关心“有用个体”的产生,而是更关注流动的信息是否符合了每一个特殊分体的自身特点,这也是算法为什么热衷于为我们提供“个性化服务”的原因。

(二)新弱者困境:自由与奴役的交锋

算法的普及再次印证了控制社会的调制模式与边沁“圆形监狱”隐喻的管控结构不同,通过释放自由实现控制。然而,数字技术的丰盈与信息的丰富远不会取消政治,相反会催生新领域的政治斗争。

1. 风口上的猪:算法背后的技术政治

为什么今天机器学习算法、人工智能算法、推荐算法等技术势在必行,成为互联网企业无法回避的议题?如果认为人类自身发展需求推动了技术的提升,那么个体的作用就被夸大了。算法对个人细节的关注只是技术实现的关键手段,而不是目的,推动技术运作的仍然是背后的资本和权力的操控,这种控制(surveillance)在超越了个人主义的范围起作用。

资本和权力的运作最终决定了哪些技术可以广泛进入社会生活的领域,而哪些则不能,个人被看作是算法网络中的监视对象,这是算法政治的第一层面。

算法技术普及后,其生产战略又再次决定了哪些东西可以进入我们的视野,哪些则被否定,技术被赋予了政治属性——“谁在内还是外,谁可以说话而谁又不可以说,谁拥有权威而可能会被相信”——一切都开始取决于传播技术,技术看到了并且可能会放大一些人与其他人一样或不一样的东西,这构成了算法政治的第二层含义。

个人无法从根本上左右充斥于自身周边的技术走向,同时个人用户也无法真正体验到算法在确定一个人生命中所产生的影响。

2. 来自算法的窥视:排序、推荐与排除

技术对注意力的分配起到了至关重要的作用。算法通过排序、类别关联等技术来实现推荐手段,决定将什么样的内容呈现在用户面前。

原本不在日常生活范围的东西借助算法推荐进入人们视野,而那些未被算法选中的东西,则被排除在。它通过排序、可见、排除等实际操作决定了哪些信息作为一种知识文本向公众展示世界,“直接、自动、连续地为某些社会群体或者地理区域,分配各种重要商品、服务、生活机会、流动机遇等”,影响着事物的可信度、社会权威以及随之而来的未来发展,影响社会性和技术性知识的话语和文化。

用户成为算法秩序和算法政治的承受者和被窥探者,从这一点来看,受众的弱势地位并未实质性扭转,而是在控制社会发生了表征方式的改变。算法看似为分体的发展打造了个性化、独立化的专属内容与服务,但其实质是用一套极其单一的标准代码在征服着世界,它所要实现的核心非常明确,通过代码操作信息的可见范围,将用户需求精准置入代码运算中,通过这样的方式将游离在外的用户需求纳入算法程序,最大范围的取消偏离常规的民间实践,用户仍然没有真正属于自己的空间。用户面对算法,始终缺乏一种对等的自治能力,只能适应被算法按照既定规则来进行服务。

3. 被隐藏的强制:不得不交付的用户自由

德勒兹说:“不必问哪种制度最残酷,或是最可容忍,因为在每种制度中,自由与奴役都在交锋。”算法用户享受便利的同时,也在交付自己的某些自由。

(学姐提示:这句名⾔很适合⽤来说明⽤户在新媒体社会中的现状,⽽且属于⼩众名⾔)

(1)被强迫的体验和创造

一方面,参与算法实践的用户越多,其服务越全面、越体贴到位,技术授权就越凸出,个体被算法实践裹挟,不得不参与其中。算法的技术包容与技术友好遮盖了其对替代选择的消除与排斥,个人可以做的选择越来越少,到最后,除了接受算法服务,别无他选。参与文化中的权威并不是通过威胁将我们驱逐出网络来实现的,而是通过使其“难以抵制、尽早参与”来运作的。

另一方面,算法推荐的内容有时候未必是用户主动选择的结果,在不经意的谈话或者某次搜索后,屏幕界面就会出现相关内容的推荐,这种被迫体验一度让人们担心算法是否在偷听我们的对话。

(2)获取使用的同时交出行为数据

算法平台不仅内含一种奖励制度,还包括一种惩罚制度,对使用条款的共识性接受将得到奖励,拒绝接受使用条款将无法体验由技术带来的便利与普惠。于是,算法的技术包容建立了一套新的霸权秩序,不遵守条约或者拒绝按照平台规则来运作,个人便无法浏览网站或购买商品。例如“抖音”隐私政策中提到:用户有权拒绝提供某些敏感信息,但是“如果拒绝提供您将无法获得相关服务”。

对于用户来说,自我隐私信息是无用的,甚至是不值一提的,将其交由算法平台进行内容与服务的置换,反而是个人信息“赋值”的一种渠道,没人有会过于“计较”自己是否被隐性强制的事实,以此避免被主流技术话语边缘化,为抵御因为拒绝就使用条款达成共识所带来的风险,个体心甘情愿地被技术征服。此外,妥协的“不计较”还取决于,个体将希望寄托于国家与互联网企业具备记录和追踪各种信息流程的能力。

(3)算法黑箱渗透着利益考量与文化霸权

算法背后难免存在着对人的隐晦或者公开的歧视。“X=男性”这样一个代码设置不仅完成的是一个划界动作,更是一个通过代码完成了一个文化话语。如亚马逊AI简历筛选过程中对那些明显具有女性标签(如“女子象棋俱乐部”“女子高中”等)的求职者打低分那样,算法背后难免渗透着利益的考量与文化霸权。

算法技术不仅是人们彰显个性的工具,更成为了组织俘获个人的手段,受众不得不承受算法可能带来的负面后果——例如,数据的片面、失真导致的算法偏见,由于算法标准缺失带来的算法追责困难,信息茧房、过滤气泡效应等等。

弱者的逃逸:抵抗即参与

(一)算法受众的几种抵抗战术

当占据主导地位的生产系统没有为消费者留有足够的自由空间,或者,当既定秩序无法满足消费者的自身利益时,便会激发受众积极创造,以此参与算法控制的社会再生产。

1. 对算法产品的空间隔绝

逃避是弱势群体经常使用的一种武器,这种逃避是一种主动选择的结果。下层零散的抵抗行为很少进入历史进程的记载,但当这种底层抵抗被千万次的重复累加时,就会对整个技术社会产生决定性影响。

剑桥分析丑闻(the CambridgeAnalytica scandal)后,皮尤调查显示44%的Facebook用户(18-29岁)选择删除App,为了应对用户的大量流失,Facebook不得建立更多的隐私保护措施。当然,对算法的反思并不总是以个体为中心的,在我国,个体伴随着政府的力量可能会成为“算法之上的我们”,以一种集体分析和集体反思的方式制定规则。例如,2021年7月,由于“滴滴出行”App严重违法违规收集和使用个人信息,被网络安全审查办公室审查,滴滴系App在各大平台下架,政府行动在挑战用户和企业之间形成的不对等权力时发挥了调制作用。(学姐提示:案例,可积累)

2. 对算法规则的自我重组

当算法推荐与受众需求出现匹配断裂时,用户会重新将算法产品组织成自己喜欢的形式,在重组中获得权力。非正式实践是受众对算法规则的重组,是在不改变算法空间规则的前提下展开的,就像德塞托所描述的阅读中的读者一样:“读者并不夺取原作者的位置,也不为自己谋取一个作者的位置”,只不过受众对使用规则的重组创造了算法文本“本来意图”之外的东西。

3. 对算法规则的主动嵌入

算法受众还会将自己的谋略主动嵌入到算法规则中。例如,在今日头条和微博中设置自己感兴趣的话题;在百度地图中将路线偏好设置为“躲避拥堵”;点击页面右上角的“×”,对一些不感兴趣的内容选择“不感兴趣”,或者对一些账号“取消关注”“投诉”,对另一些内容选择“收藏”或者“点赞”。

用户的自主设置完成了平台内容的“自我定制化”,与个性化不同,定制化(customization)被定位为用户明确参与更改产品的过程,是更高一级的个性化,因为它包含了用户的参与在其中。但需要注意的是,即便用户所做操作是选择点击“叉号”拒绝算法推荐,也属于一种参与,因为点击“不感兴趣”的同时意味着后台数据的生产,不是避开了算法对我们的追踪,而是产生了更多的数据信息让算法更准确。某种程度上,算法实践是一种收缩的,越来越精细化的内卷过程。 (学姐提示:反思,开拓视⻆)

4. 对算法逻辑的反向规训与控制

受众对算法逻辑的参与最深的层次是故意将自己的偏好、兴趣投喂给算法以实现对算法的反控制和反规训,这种反噬意味着受众努力将主观意图凌驾于机器意图之上。常见的反向诱导方式是给予不喜欢的内容以较高的“观看完成度”。观看完成度是指受众脱离算法给定的参与版块(例如“不感兴趣”“取消关注”“收藏”等),通过自身有意识的行为和个人主动性产生新的微权力。

(二)控制社会与规训社会的底层战术比较

德塞托关于战术与战略的区分在地点与空间、不可见性的关系性描述方面,仍然适用于算法社会。

首先,从地点和空间来看,战略之所以能够建立起社会文本规范,使其背后的权力关系得以运作,在于其有专有空间或机构的支撑。

算法通过代码搭建了全新的虚拟空间,为算法生产战略的专属地点,决定了我们将目光投向何种事物,决定了何种知识能力才具有合理性,既得利益以成熟稳定的秩序运作。具有迷惑性的是,受众以为自己获得了全新的生产空间(例如大量UGC的出现),个人仿佛不再是城市的过客,而成为空间的共建者。

事实上,这个由用户参与的空间从来不属于我们自己。主要表现在两个方面:

第一,当我们要回答“我应该做什么?我们应该做什么?我们应该追求什么样的目标”这些问题时,决定权依然在于算法,就像前文提到的动画设计师,为了获取曝光度,而改变自己的设计风格。所以,算法制定行为准则来修正和规范我们的行为,这也拓展了控制社会的内涵——算法控制通过我们的身体在说话,而不是空间。

第二,算法受众的抵抗战术(逃离、重组、嵌入、反噬)归根结底只能将算法搭建的技术空间作为自己开发的场所,通过时间的机遇来进行要素的组合,将意义的协商委派给代码,由代码来代替我们做决定,人们达成的共识交由算法来塑造。

第三,从受众抵抗战术的不可见性来看,战术是应变的、违禁的、隐秘的、持久的私语,它没有专属于自己的产品,而是使用那些由算法生产战略强制塞给他们的产品,借助于弱者的艺术来实现自己的创作,将底层统治秩序隐喻化。

控制社会最大的特点就是以一种非常隐蔽的不易察觉的,甚至表面上看起来是一种解控的、民主的数字解放来掩饰其实质,个人的需求被代码运作事无巨细的过问与辅佐实现。算法战略对受众的控制在于其从人们身体内部产生了顺从的愿望,算法对受众的统治不需要外部机构来执行规训,而是通过我们个人对技术的使用而建立。于是,算法带来了生活的便捷,却让人们对平台依赖视而不见;人们享受信息的丰富与精准推送,而对注意力和时间的损耗无动于衷;人们无法抵抗永久在线的吸引,却以自己的隐私和信息数据作为牺牲品。

最后,我们回到与德塞托和德勒兹的对话中,需要稍作调整的论述是:在德塞托看来,底层战术原本是作为一种文化适应现象的扩张,细微但却具有创造的张力;而在控制社会,算法战略虽然没有从产品中将个体驱赶,却极大程度地剥夺了弱者的可偏离性,将他们变成更为纯粹的接收者。算法社会,强者并非真正意义的强者,个体拥有了某种眼前利益,却丧失了更大的自由。

但是,数字政治最大的转变取决于权力的转变,取决于封闭的算法系统如何发展,从中国语境出发,政府力量成为了行之有效的存在,而这种力量是否能发挥作用,能否将个体反思变成有效的集体行动,关键在于政府是否将算法系统的转变视为是信息社会发展的必然,以及如何去引导其由封闭走向真正的开放。

结语:作为实践的算法代码与人的技术存在

我们所在的时代是这样一个时代——一个时代造就了我们,我们造就了机器,机器造就了我们的时代(Turkle,2011)。

(学姐提示:很好用的名言,可积累)

我们不得不面临的,也是最吊诡的问题:技术、数据已经成为人们身份不可分割的一部分,但我们却并不拥有它。但可以憧憬的是,算法技术的不断提升,包括其建模、计算、行动能力的提升,算法会越来越智能化、人性化,并且具有开放性和互动性;同时,随着公众对算法认知的积累,以及对算法产生的结果的感知,人们有一天会更深刻地意识到要对算法做出何种改变。待公众能够成为有形政治力量的那一天,算法技术或许可以成为一种“反身性机器”(reflexiveapparatus)。

(学姐提示:展望式结尾,是技术类题⽬中常⽤的结尾形式,这⾥写的⾮常好,⼤家可以学⼀学这句。)