人工智能与资本的相互嵌合不是要把人类从资本主义当中解放出来,恰恰相反,它是要把资本从人类那里解放出来:资本不再需要人类,人类可以绝迹了。[1]
——尼克·戴亚-威泽夫特等,《非人的力量:人工智能与资本主义的未来》
美国当地时间2026年2月26日,Twitter创始人Jack Dorsey创办的金融科技公司Block宣布裁员40%,约4000名员工被裁。这一决定迅速赢得了华尔街的喝彩,其股价在随后的交易日内上涨超过20%。
Block将此次裁员描述为一次由人工智能驱动的组织重构。表面上看,这似乎是AI技术成熟后的自然替代。但正如《纽约时报》评论的那样,这场激进裁员更像是一种以终为始的生存策略。
当资本市场因AI冲击开始系统性下调传统软件公司的估值时,企业被迫向投资者证明其已经搭上人工智能的列车。裁员成了强制推动AI化的手段。通过将10人的团队缩减至1人,留下的员工被迫在过载的工作中依赖AI。企业是否真的掌握了技术能力并不重要,重要的是让投资者相信公司向AI靠拢的决心。
陕西省榆林市清涧县,工作人员在进行数据标注。 中新社记者 张远 摄
一个牵动人心的叙事正在形成,AI已经带来新一轮的劳动力结构转型,而资本在其中推波助澜:资本不再需要人类,人类可以绝迹了。
但如果把视线从裁员新闻移开,另一幅截然不同的图景正在出现。人工智能产业本身,正在以前所未有的速度吸纳人类劳动者。
自由职业平台Upwork发布的报告显示,2025年全年,明确提及人工智能技能的岗位数量同比增长109%。其中增长最快的,并不是算法工程师,而是将AI嵌入既有工作流程的岗位。最典型的是数据标注,这一长期隐藏在AI系统背后的劳动需求,岗位数量在一年内增长了154%。
资本也在迅速押注这一领域。2025年6月,Meta宣布以143亿美元收购数据标注公司Scale AI 49%的股权,这笔交易瞬间点燃了硅谷对数据标注赛道的投资热情。随后数月,行业融资消息频传:7月,成立于2020年,此前坚持独立运作的Surge AI开启首轮10亿美元的融资,估值达150亿美元;9月,成立十年的Invisible Technologies获1亿美元融资,估值超20亿美元;10月,成立于2023年,由三位“00后”创立的Mercor完成2.5亿美元C轮融资,估值跃升至100亿美元。
短短半年,数据标注行业的科技新贵们手持数亿美金,坐上了硅谷的热门席位。数据标注从AI训练的幕后支撑,一跃成为最热门的投资领域之一。
字节跳动、阿里巴巴、腾讯等国内大型科技公司也纷纷下场搭建自有数据标注平台,为下一轮AI竞争储备数据资源。
在这场混战背后,一系列很少被讨论的问题正在浮现。当人工智能被描述为取代人类劳动的技术时,大量新的劳动却正在被创造出来。这些劳动由谁完成?它们如何被组织?又会在技术演进中走向何处?
在AI数据标注平台上,一种新的劳动秩序正在形成。而它的运行方式,或许并不陌生。
从县城宝妈到985硕博生,数据标注行业的“爬坡”与“分流”
标注员的学历爬坡
随着模型能力的演进,人工智能训练所需的数据正在发生变化。需求正在从低门槛、标准化的标注任务,转向更高专业度和更深层推理能力的数据生产。这一变化首先体现在劳动力结构上。
早在2023年,像Scale AI这类依赖低薪众包工人的数据供应商就已经开始转型。他们不再向东南亚、非洲等地区的外包工人投递时薪1—3美元的简单标注任务,而是以每小时30—40美元的价格在全球范围内招募行业专家。Scale AI旗下,曾因压榨劳工问题饱受争议的平台Remotasks也更名为Outlier AI,试图以新的组织方式延续数据标注神话。
无独有偶,2024年年中,Mercor开出了50-200美元的时薪招募金融与STEM领域的专家,正式宣告公司从AI驱动的招聘平台转型为数据标注市场的重要竞争者。在去年9月的访谈中,Mercor创始人Brendan Foody透露该平台时薪的中位数是95美元,最高可以达到500 美元,“传统众包平台平均只付30美元/小时,所以只能雇些本科生。而我们能吸引到高盛银行家、麦肯锡顾问、FAANG 工程师”。这位年轻人颇具挑衅意味的比较,也折射出行业对于高端认知技能的渴望。
与海外平台轰轰烈烈的抢人大战相比,中国公众最早接触到的数据标注员却是另一种形象。2023年,一篇关于“县城宝妈成为AI数据标注员”的报道让大众首次窥见AI产业背后的隐形劳动。计件薪酬、10—30元时薪、职校或大专学历,这些标签构成了公众对这一行业的最初印象。
两年之后,这种印象迅速发生变化。2025年2月,AI公司 DeepSeek 发布的“AGI数据百晓生”招聘信息显示,数据标注岗位的月薪为1.5万至3万元,实习生日薪500元以上。学历要求则明确写明本科起步,硕博优先。薪资与门槛的提升,再次引发了公众对数据标注行业的关注。
受访者林逸(化名)讲述了她在2020年与2024年两次尝试加入数据标注行业的经历,直接反映了数据标注行业对从业者能力要求的转变。
2020年,出于对人工智能产业的好奇,我投递了国内某大型物流集团的数据标注岗位。两天后,我收到了HR的电话,她告诉我,这个岗位的主要任务是对道路图像进行拉框和打标,我的学历与经验完全超出了这项岗位的需要,建议我投别的。2024年年初,我又投递了当时大爆的AI公司,想要通过数据标注的岗位进入行业再寻求转型。同样的数据标注岗位,我需要先做一轮笔试,笔试内容是给AI出题。我花了一点时间,努力发挥我的想象力去完成,但最终没有通过。
林逸的两次求职经历,恰好构成了行业转型的时间切片。从“学历过高”到“笔试未通过”,数据标注岗位正在经历明显的学历爬坡与要求提升。
标注任务的模式分流
林逸的个体经历,实际上也是中国数据标注行业在过去十年发展的缩影。
在2015—2024年间,中国的数据标注产业大体形成两类主要玩家。一类是深耕数据产业多年的第三方数据标注公司,例如海天瑞声、云测数据、澳鹏Appen、龙猫数据等。这类公司主要服务智能驾驶和医疗等垂直领域的客户,处理视觉、音频数据。县城宝妈们收到任务均为此类,核心工作内容是给图像拉框打标,门槛较低。
另一类则是科技公司的内部标注团队,例如深度求索(Deepseek)、月之暗面(Kimi)等。由于核心数据涉及商业机密,这些公司通常需要自建标注团队。标注员们的主要任务是通过出题的方式对模型进行强化学习,扩展模型边界。因此对标注员的知识背景与逻辑能力有更高要求。
2025年的第三季度,新的玩家闯入了这一行业。字节跳动“Xpert”、阿里巴巴“晓天睿士”和腾讯“Qlabel(企鹅标注)”等数据标注平台开始大规模通过中介公司与官方渠道招募高学历的数据标注员,试图通过众包平台模式加速数据标注行业的人才升级。这些岗位时薪通常在150—500元之间,支持远程参与,迅速在社交媒体上吸引了大量数字游民和高学历求职者。
与早期的数据标注不同,这些平台的任务更接近一种“认知劳动”。标注员需要像老师一样教导AI。不仅要基于真实场景设定考题,还要撰写清晰的解题思路、考点和评分标准,最后再根据标准对AI生成的内容进行评估。其工作流程类似“出卷-批卷-评分”,核心并非简单的数据标记,而是对思考过程的结构化表达。
从拉框打标,出题,到梳理工作流。从县域宝妈、职校生,到本科生,再到985硕博和实战经验丰富的行业专家。数据标注行业正在经历接续不断的任务“分流”与学历“爬坡”,这背后反映了大模型训练需求与数据标注核心思路的转变。
技术范式创新
早期大模型训练大多依赖人类反馈来引导学习过程,主要有两种训练模式。
第一种是监督微调(SFT),核心是模仿学习。模型通过大量“标准答案”数据进行训练,直接学习从输入到正确输出的映射。拉框打标就是在为模型提供标准答案。第二种是强化学习(RL),核心是试错优化。标注员向模型提供开放性或较为刁钻的问题,然后在模型生成的几个示例中选出最优结果,模型收到反馈后再自主探索解题策略。
近年来,行业正普遍转向来自AI反馈的强化学习(RLAIF),以减少对人类反馈的依赖。
Xpert、晓天睿士和Qlabel等数据标注平台采用的便是这种训练方式。数据标注员需要为特定场景定义某种成功标准,为标准确定不同的重要性程度,并提供可衡量的方式来判断模型是否达到了标准。举例来说,在文本创作领域,成功的标准可能包含任务理解、场景匹配等。而任务理解这一标准的可衡量方式可能包含文本是否满足显性的主题要求或隐含的写作意图。
这种训练方式本质是让模型学会人类的思考过程和判断标准。不仅能够高效评估模型,还能够反哺提升模型能力,最终实现自我训练。
从监督微调(SFT)到强化学习(RL),再到AI反馈的强化学习(RLAIF),大模型训练思路不断演进。AI系统的目标也从通过标准测试,转向能够自主完成复杂任务并直接创造经济价值。正因如此,数据标注工作也从简单的数据处理,逐渐转向对认知过程的结构化表达。这要求标注员不仅掌握基础专业知识,还必须具备抽象思维与问题拆解能力。这是如今各平台日益倾向于招募大量高学历及专业人士担任数据标注工作的根本原因。
当标注任务从简单的拉框打标,演进为需要抽象思维与场景化判断的认知劳动时,平台如何组织、控制与评估这类高度专业化的劳动,成为更关键的问题。在采用 RLAIF 模式的平台中,劳动控制机制往往也随着任务升级而变得更为精细和系统化。这些规范不仅关系到标注效率与数据质量,更深刻影响着标注员的工作体验与职业认同。
控制、协商、同意与抵抗:高薪灵工并不“灵”
在平台的宣传话语中,数据标注岗位是“高薪灵工”的典型代表。标注员的时薪为150-500元左右,远程工作,自由接单。人们不再像过去那样挤在一个摆满了电脑的办公室之中,而是分散在世界各地,并在任意时间登录平台开始工作。
但这种灵活性往往只是表象。
工作时间、空间与任务控制并没有消失,而是被新的技术逻辑重新组织。数字平台成为新的工作场所,劳动分工、工序、条件与技能都被嵌入技术设计之中。
一种熟悉的管理逻辑正在回归。20世纪初,泰勒主义通过拆分任务和计量时间来提高工厂效率。今天,算法和平台系统正在以更精细的方式完成同样的事情。数字泰勒主义的幽灵,在平台劳动中再次浮现。
为了理解这一劳动体系,2025年10月至2026年1月期间,笔者对多个数据标注平台进行了参与式观察,其间注册了国内外多家平台账号,并根据自身背景选择不同专业方向,参与了多种类型的标注项目。
在不违反保密协议的前提下,下文将从行业常规的劳动过程切入,拆解分工与流程设计的内在逻辑,力求描绘AI数据标注平台背后的劳动生态全貌。
自主性幻象:抢单焦虑与任务回收
数据标注的主流结算模式为计件制,即按照任务量结算薪酬。
在传统模式下,标注员受雇于数据需求方或第三方数据标注公司,由雇佣方直接分配任务,任务量较为稳定持续。而在平台模式中,项目通过平台集中呈现,标注员根据自身经验、时间报名。灵活性大幅提升的同时,任务量和薪酬的不稳定性也十分显著。
任务并不是随时都有,虽然有一些通用的项目,但大部分项目都要求应聘者具备非常具体的经验,所以找到合适的并不容易。总体而言,人文社科岗位明显少于理工科、法律和金融方向,某些平台甚至直接限制专业申请,这让我再一次真切感受到来自算法的学科歧视。
一旦出现合适任务,标注员往往需要第一时间上线“抢单”。平台任务具有高度即时性,无法提前规划。为了不错过机会,标注员需要持续关注邮件、短信和协同办公软件的通知。但即便如此,也经常“手慢无”。
然而,抢到任务只是第一关。任务包一旦被领取,真正的游戏才刚刚开始。
尽管平台宣称人们可以在任意方便的时间完成标注任务,但实际上,如果不及时开始标注任务,平台会在2-3天内强制释放,之前为抢单付出的努力将化为乌有。
这是一种典型的劳动控制技术。平台首先营造了一种任务稀缺性,让劳动者预先投入时间、注意力、情感劳动去获得任务资格。紧接着,通过限时的任务回收机制迫使劳动者尽快开工,将任务闲置与周转成本转嫁给标注员。
这种机制与外卖骑手的抢单逻辑类似,利用抢单的沉没成本与任务回收的机制组合,平台将“尽快完工”内化为劳动者自己的选择。利用自主性幻象实现了无需现场监督和直接命令的劳动控制。
而一个更深远的影响是,这套机制强化了数据标注“低门槛,可复制”的工作想象,敦促标注员在认知上完成了去技能化。个体劳动者的议价能力被进一步弱化,即便是拥有丰富领域知识与经验的行业专家,也不过是平台可替换、可调度的劳动资源。任务分配成为平台控制的“前哨性设计”,预告了平台对数据标注劳动过程的全面支配。
标准化生产:二元分工、SOP控制与劳动原子化
数据标注平台的劳动分工相对简单,主要由标注员与质检员两类角色构成。标注员负责执行标注任务,质检员负责审核结果,形成了“生产—审核—修正”的责任链条。
二者的工作均依赖于平台提供的标准作业程序文档(Standard Operating Procedure,下文简称SOP)。平台的项目经理与产品经理会为每个项目定制不同的SOP,涵盖标注工序、标注规则、特殊情况处理等。标注员和质检员必须严格遵循这些规范进行操作,其工作成果将直接与标准进行比对,并据此计算薪酬。
通过制定SOP,平台将复杂任务拆分为标准化操作,使劳动过程高度去技能化。
我对SOP并不陌生。互联网时代,人们早已习惯用标准流程来组织工作。但数据标注的SOP文档没有那么好理解,我常常需要反复阅读三遍才能明白接下来要做的工作。有时我很怀疑这些文档的撰写过程,究竟是AI发力了,还是AI压根没参与。
尽管平台在制定SOP时力求标准的客观、清晰与详细,但在实操中避免主观性几乎是不可能的。当规则解读出现分歧时,最终解释权往往掌握在质检员与管理者手中,而返修带来的时间成本与薪酬损失只能由标注员承担。为降低返修与退回风险,标注员只能向质检员与管理者的解读靠拢,主动放弃自己的判断。
如果说SOP决定了标注员如何工作,那么平台沟通机制则决定了劳动者如何协作。
在传统模式中,标注员与质检员多通过即时通讯工具同步交流。不仅是围绕返修意见的沟通,还包含对标准的多轮讨论,有时甚至会有一些情感性表达。但在平台模式中,沟通被限制在系统内的异步留言板中,二者仅在返修时可以对话。返修的次数有限,意味着沟通频次和深度都在降低,这进一步阻断了互助关系与集体经验的形成。
作为标注员,平台系统上条理清晰的意见让我感到庆幸又无奈。我感激质检员尽力用最短的话说清意见。大部分的质检员都是从标注员中选取,他们明白标注员在面对大段修改意见时的崩溃,尤其返修花费的时间并不支付薪酬。
但是,平台系统的异步沟通模式又让我回归书信时代,我不能在返修间隙和质检员或者其他标注员来上一两句吐槽。我和摸鱼搭子的对话自由被平台阻断了,这种痛苦类似于手机砸脸、睡觉落枕和脚趾撞桌腿,一种说了矫情,不说刺挠的痛苦。
SOP与异步沟通系统的设置共同推动着劳动者走向原子化。这种原子化状态首先弱化了劳动者之间的人际信任与协作,转而不断强化平台规则的绝对权威。
在此状态下,个体劳动者变得更加孤立,更容易被平台监控、评估乃至替代。他们不得不主动向平台标准靠拢,以更顺从的姿态开展工作。标注员对规则的解释权、协商权与异议空间被大幅压缩。与此同时,因标准理解偏差、沟通不足等产生的成本与责任,也被全面转嫁给标注员与质检员。
最终,平台得以实现对劳动者高效且低成本的劳动控制。
技术霸权:算法监控与AI辅助的动态质检
在第一节我们提到,RLAIF训练模式的最终目标是要帮助AI建立任务评估体系,最终实现自主训练与进化。要实现这一点需要两个核心步骤,一是提供高质量的任务拆解思路、考点(Rubrics)与标准详情,二是要确保AI能够理解标准并实施评估。
平台引入了算法监控与AI辅助的动态质检来保障以上两个步骤的顺利实施。
首先,借助算法来确保考点的质量。只有当AI的输出结果不能满足所有考点要求时,标注员的任务才算有效。简言之,标注员只有“考倒”AI,才能通过审核。
与此同时,平台还引入了AI辅助质检系统。在人工审核之前,AI会先根据考点自动评分,并将结果与人工评分进行比对。通过这一程序,平台逐步训练AI理解和执行评估标准。
算法和AI质检将数据标注过程进一步程序化,劳动者不再主导任务理解,而是围绕系统设定的评估逻辑展开工作。布雷弗曼所说的“去技能化”,在这里以新的技术形式实现。
在完成任务的过程中,我产生了一种习得性无助的感受。完成一项任务需要经历多道审核和多轮返修。就像反复尝试开门却总是失败的人最终会放弃转动门把手,我到后期已经不愿意再打开平台完成标注任务。
此外,尽管与质检员和项目经理的沟通空间被大幅压缩,却依旧存在协商缝隙。但若碰上算法和AI质检,简直像是一拳头打在了棉花上。我无法与算法协商,只能主动满足算法对难度与清晰度的需求。
无形之中,平台使个体劳动目标等同于算法目标,解释权与评估权被系统垄断。劳动者最终陷入对平台系统的结构性依附,在技术霸权的阴影中埋头工作。
数字泰勒主义与品味游戏:数据标注会往哪里去?
AI面前,人人平等?
综上所述,AI数据标注的劳动过程并非简单的按图索骥,而是一套由平台算法支持,分工清晰、流程严谨的动态流水线。这套体系遵循典型的数字泰勒主义原则,通过将工作拆分为标准化、重复性的任务,持续监控劳动绩效,来提高效率和生产率。
标注员与质检员构成了这一体系的核心分工结构。计件制薪酬、任务回收机制、SOP流程、多轮算法质检与人工审核相互嵌套,使数据标注形成一个封闭的生产循环。系统同时强化了对劳动力的监控与控制,加剧了平台资本与劳动者之间的权力不平等。
与传统泰勒主义主要优化体力劳动不同,数字泰勒主义将管理控制扩展到认知和情感领域。平台试图将思想、判断和情感转化为可测量、可优化的数据输入,从而推动知识劳动与情感劳动的商品化。
这些被商品化的认知劳动,正被用于训练AI的“品味”(taste),也即判断力。
科技公司普遍认为,高质量的数据标注能够帮助模型形成稳定的价值判断。Surge AI创始人Edwin Chen在一次访谈中反复强调:“我们不是在教模型如何对话,而是在教它什么是对、什么是好……我们不是在检查这首诗有没有提到月亮,而是在问,这首诗有没有打动你”。
这里的品味,既包含审美与直觉,也包含理性判断。然而吊诡的是,数据标注的劳动过程正在最大程度地剥离劳动者自身的理解与创造力。标注员被简化为流水线上的执行者,人类判断力被拆解为碎片化的数据。
更有趣的是,数据公司们对“品味”的化用,在无意间改变了人类社会长期以来的“品味游戏”。在皮埃尔·布迪厄的经典著作《区分:判断力的社会批判》中,品味被视为文化资本的重要组成部分,是社会阶层区隔的重要机制。但在数据标注平台上,流水线式的管理逻辑被应用到智力与创造性工作之中,从而模糊了体力劳动与脑力劳动之间的传统界限。不论是白领还是蓝领,都在这场数据生产中接受同样的监控与规训。
但问题也随之而来,AI面前,真的人人平等吗?
数据标注行业中的“品味游戏”揭示了AI模型输出背后的另一层逻辑。当科技公司强调品味时,他们实际上是在定义一种标准化的认知框架,并试图为数据采样可能带来的偏差提供某种免责声明。
模型开发领域流传着一句话,“有多少人工,就有多少智能。”这句略显粗糙的说法,却揭示了数据标注的重要性。在RLAIF训练模式中,标注员不仅要依据多维标准对模型输出进行评分,还需要对不同标准进行偏好排序。换言之,数据标注的过程实际上是在界定人类认知的边界。
特定群体的价值观和判断框架,正通过数据被不断嵌入模型之中。
作为智能系统的基础,数据决定了模型的能力边界。当我们向AI提问时,得到的回答在某种程度上反映了标注员的“品味”。而其品味又受到教育背景、阶层经验和文化环境的影响。当一个身处硅谷的精英工程师与一个来自非洲的标注员同时进行标注时,AI所吸收的逻辑显然并不相同。
这意味着,如果标注员群体的社会结构过于单一,某些认知偏见就可能被不断放大并固化在模型之中。而缺乏数据权重的弱势群体,往往更容易被忽视。
科技公司并非完全没有意识到这一问题,模型开发者承诺要在制度和技术层面限制偏见。然而一个难以回避的事实是:在模型真正形成之前,数据供应体系已经在很大程度上决定了它将如何理解世界。
AI所看到的世界,本身就经过了数据标注的过滤。
因此,AI面前或许人人平等,但前提是,你得被AI看见。
剩下的1%
随着人工智能的快速发展,公众对“AI换人”的焦虑不断上升。在数据标注行业,这种担忧正在加速成为现实。
过去两年,商汤科技与海天瑞声等头部数据服务企业不断加大在数据生产流程自动化方面的投入,传统意义上重复性强、技术门槛低的“拉框打标”正迅速被AI辅助标注工具所取代,岗位需求断崖式下滑。
在这一背景下,国内互联网大厂主导的数据标注平台正切入更高阶的战场,试图在更加复杂的“心智”领域实现数据标注的自动化。从去年到今年年初,AI正在自我训练的道路上一路狂飙,大模型已经能够生成海量的合成数据,减少对人工标注的依赖。
例如在2月发布的GPT-5.3 Codex的技术文档中,Open AI写道,“GPT-5.3Codex是我们第一个在自身创建过程中发挥了关键作用的模型。Codex团队利用其早期版本来调试自身的训练,管理自身的部署,并诊断测试结果与评估结果。”
换言之,模型开始自主制造、验证、迭代自己的训练数据。AI的递归自我提升(Recursive Self-Improvement,下文简称RSI)已经箭在弦上。
然而,自动化标注技术仍然存在明显局限。在复杂任务上,AI仍然难以达到人工标注的准确度。即便是最先进的模型,目前也仍然依赖“合成数据生成 + 人类验证”的训练模式。
原因很简单,真实世界永远有不可模拟的噪音,而这些复杂性很难完全通过合成数据模拟。一旦训练数据过度人工化,模型性能反而可能下降。这解释了为什么从事普通标注任务的劳动者面临失业,而与高阶技能相关的标注岗位需求仍然保持了154%的年增长。
但这个增长速度能够持续多久?
如果回溯技术史,类似的故事已经上演过许多次。从18世纪的珍妮纺纱机,到蒸汽动力机械,再到20世纪的工业机器人,重大技术进步对劳动力的需求往往呈现出相似的,一条先升后降的倒U型曲线。
在技术扩散初期,新技术会创造大量新的工作需求。生产效率的提高扩大了市场规模,新的产业链环节被不断打开,劳动力需求迅速上升。
随着技术逐渐成熟,自动化水平提高,原本依赖人工完成的工作开始被机器替代。岗位数量不再增长,而进入结构性调整阶段。
到了技术发展的后期,大部分标准化任务被彻底自动化,行业中只剩下少量高度专业化的岗位。
今天的数据标注行业,很可能正处在这条曲线的前半段。
如果技术史的规律依然成立,那么去年154%的增长,或许正是这条倒U型曲线登顶前,最后的辉煌。在未来,人工标注不会完全消失,但会极度萎缩并高度集中化。
那些重复性极强的标注岗位会不复存在,而那些需要高技能、专业知识的标注岗位或许会保持短期增长,然后在峰值之后缓慢下降,最终稳定在极小的比例。
或许是5%。
也可能只有1%。
木已成舟,不如乘兴而去
人工智能的发展正在创造新的经济神话,但这种价值增长并不总是与人类劳动生产同步。人类的时间与劳动力仍然处于这场价值循环的底层,而掌握生产资料的资本则不断扩大其控制范围,跃跃欲试地计划收割一切。
题注中关于“AI解放资本而非人类”的判断极具冲击力,这一技术决定论观点调动了人们对于技术最原始的恐惧。
在AI时代,普通人的焦虑被不断放大。我们都清楚“Something Big Is Happening”,却不知自己该如何应对。
但不要忘记,尽管资本极力将AI描述为一种脱离于人类的,近乎神的创造,但AI看似独立的进化过程仍然建立在人类认知劳动之上。
AI并没有消灭人类劳动,而是将劳动推入更加隐蔽、更具控制力的形态。而这种被精心隐蔽的人类劳动,最终凝结为科技公司不断兜售的AI品味。
然而,品味从来不仅来自理性规则,也来自人类的直觉与欲望。AI或许可以模拟逻辑,却很难复制这种细微复杂的生命经验。逻辑可以被设定和优化,而欲望充满了非理性、矛盾与生命力。
每隔十年,总会有一批年轻人站在新的技术风口上。十年之后,有些人会被认为抓住了机会,也有人被认为错过了时代。
但很多时候,人们甚至没有时间思考,自己为什么要站在那个风口上。
不要被张牙舞爪的技术决定论吓倒。
专注你的呼吸,想想你的欲望。
欲望不过是人类的起点,却可能是AI难以抵达的终点。
既然木已成舟,不如乘兴而去,以求顺势而归。
注释:
[1]原文是“ A second, yet more disquieting Landian point, is that this mutual embedment of capital and AI leads not to human emancipation from capitalism, but, on the contrary, to capital’s emancipation from the human: a capital that no longer needs homo sapiens; human extinction.”,为尼克·戴亚-威泽夫特等人对尼克·兰德观点的总结性评论。
参考资料:
Altenried, M. (2022). The digital factory: The human labor of automation. In The Digital Factory. University of Chicago Press.
Aaron Zamost. (2026, March 4). I Worked for Block. Its A.I. Job Cuts Aren’t What They Seem. The New York Times. https://www.nytimes.com/2026/03/04/opinion/block-jack-dorsey-layoffs-ai.html
Dyer-Witheford, N., Kjøsen, A. M., & Steinhoff, J. (2019). Inhuman power: Artificial intelligence and the future of capitalism. Pluto Books.
哈里·布雷弗曼 (1979). 劳动与垄断资本:二十世纪中劳动的退化 (方生等译). 北京:商务印书馆.
胡万亨. (2021). 当卡尔·马克思遇见人工智能:《非人的力量:人工智能与资本主义的未来》评介. 科学与社会, 11(2), 123–137.
Isaac, M., & Metz, C. (2025, June 12). Meta invests $14.3 billion in Scale AI. The New York Times. https://www.nytimes.com/2025/06/12/technology/meta-scale-ai.html
Lenny's Podcast (2025, September 15). Why experts writing AI evals is creating the fastest-growing companies in history | Brendan Foody [Video]. YouTube. https://www.youtube.com/watch?v=ja6fWTDPQl4&t=680s
Lenny's Podcast (2025, December 7). The $1B Al company training ChatGPT, Claude & Gemini on the path to responsible AGI | Edwin Chen [Video]. YouTube. https://www.youtube.com/watch?v=dduQeaqmpnI&t=108s
Liu, T., Matsuda, T., & Burlacu, G. (2026, February 4). In-Demand Skills 2026: A market view of skills demand in an AI economy. Upwork. https://www.upwork.com/research/in-demand-skills-2026
PrajnaAI. (2025, August 18). RLAIF vs RLHF: What's the difference and why it matters. Medium. https://prajnaaiwisdom.medium.com/rlaif-vs-rlhf-whats-the-difference-and-why-it-matters-8e515aa374b6
中国信通院.(2025,08).数据标注产业发展研究报告(2025年).中国信通院.https://www.caict.ac.cn/kxyj/qwfb/ztbg/202508/t20250829_691214.htm
热门跟贴