「84%的专家看好AI医疗,普通民众只有44%」——斯坦福这份报告的数字,暴露了一个被刻意忽视的断层。

当科技精英们为AI欢呼时,美国犹他州博克斯埃尔德县的居民正和警长对峙。加拿大亿万富翁凯文·奥利里(Kevin O'Leary)支持的超大数据中心项目,在委员会强行通过后引发众怒。这不是孤例:年轻员工开始在工作场所破坏AI系统,市民拆除AI监控摄像头。恐惧正在具象化。

打开网易新闻 查看精彩图片

与此同时,OpenAI的萨姆·奥尔特曼(Sam Altman)公开宣称AI正在颠覆自由民主的根基。企业顾问不再掩饰对"紧缩型职场制度"的期待。两个世界正在平行运转——而斯坦福AI中心的研究证实,这种认知鸿沟的规模远超表面。

「永久底层」的数学

报告数据冰冷地铺陈着分裂:69%的AI专家对经济影响持乐观态度,普通民众仅21%。近三分之二美国人预期AI将在二十年内削减就业岗位。专家与公众在新闻媒体、人际关系、选举议题上倒是罕见地一致悲观——但这恰恰反衬出,经济议题才是撕裂的核心。

原文没有解释这种断裂的成因,但逻辑不难追溯:AI系统的成功运行,客观上依赖劳动力结构的重组。当技术能够替代人类劳动,"冗余人口"的制造便成为系统运转的副产品。科技精英对此心知肚明——部分人甚至公开谈论这种前景。

这不是阴谋论,是成本结构的算术。维持一个"永久底层"的社会配置,与AI资本的利益最大化存在结构性耦合。

犹他县的现场教学

博克斯埃尔德县的冲突提供了微观样本。超大数据中心意味着什么?当地居民的愤怒指向具体威胁:水资源消耗、土地占用、就业替代。奥利里的资本与县委员会的决策形成闭环,而社区被排斥在谈判之外。

sheriff's deputies(警长副手)介入维持秩序的画面,成为技术扩张与社区抵抗的经典构图。这不是反技术情绪,是对决策权剥夺的本能反应。

年轻工作者的"破坏"行为同样需要被重新编码。在缺乏制度性退出通道的情境下, sabotage(蓄意破坏)成为最后的议价手段。当市场不再承认其劳动价值,他们选择直接攻击价值评估系统本身。

乐观主义的认知基础设施

专家的乐观并非盲目。斯坦福报告显示,84%的AI专家预期医疗领域获益,这一数字建立在特定知识框架之上:他们熟悉技术迭代曲线,参与过概念验证,见过实验室里的突破。这种"知情"反而构成盲区——对部署摩擦、分配政治、转型成本的系统性低估。

普通民众的悲观同样基于经验:零工经济的不稳定性、客服自动化的切肤之痛、算法管理的微观暴政。他们的"无知"恰是对系统复杂性的诚实承认。

两种认知模式的对称性缺失值得注意。专家群体内部存在筛选机制:持悲观立场者可能早已退出行业,或从未获得发声位置。公众意见则缺乏同等过滤,呈现更原始的分布形态。比较本身即是一种认知暴力。

紧缩制度的预演

企业顾问对"devastating workplace austerity regimes"(毁灭性职场紧缩制度)的直言不讳,揭示了话语策略的转变。早期AI叙事强调"增强人类"(augmentation),现在替代逻辑(replacement)被公开讨论。这种话语升级本身即是权力自信的指标。

奥尔特曼关于"颠覆自由民主基础"的表述更为激进。民主制度预设公民具备经济自主性——当AI系统能够压缩这一自主性的物质基础,政治形式的合法性便被动摇。这不是技术决定论,是技术精英对自身历史角色的清醒定位。

值得注意的是,原文在关键处中断:「Whether we actually end up in this hellscape is hard to say. Currently, there's little evidence that AI is actually capable of disenfranchising the world」——AI是否真能造成如此后果,目前证据不足。这一保留至关重要,它将讨论从宿命论拉回开放性。

认知鸿沟的再生产

斯坦福报告的价值在于量化了一个被直觉感知的现象。但量化本身无法解释鸿沟的持续性——为何在信息流通如此便捷的条件下,两类群体的认知轨迹反而发散?

可能的解释指向利益结构的封闭性。AI专家的收入、社会资本、职业前景与技术扩张深度绑定,形成认知投资的沉没成本。普通民众则缺乏对冲渠道,风险暴露呈单向性。这不是道德批判,是激励结构的分析。

更隐蔽的机制是时间贴现率的差异。专家群体更接近技术部署的决策节点,能够将远期收益折现为当期预期;公众面对的不确定性更混沌,贴现率更低,表现为对远期风险的过度警觉。两种计算方式在数学上等价,在社会效果上冲突。

被中断的叙事

原文在论证高潮处戛然而止,留下技术能力的悬置判断。这种未完成性本身即是诚实的标记——在AI影响评估领域,确定性主张往往是修辞策略而非认知成就。

但悬置不等于虚无。已有证据足以支持特定判断:技术精英与公众的认知分裂是真实的、结构性的、且被前者所利用。奥利里的数据中心、奥尔特曼的民主论述、顾问的紧缩预言,构成连贯的行动蓝图。

公众抵抗的形式——从社区动员到工作场所破坏——同样呈现策略理性。在正式政治渠道失效的情境下,这些行为是对"永久底层"前景的提前否决。

斯坦福报告提供的数字框架,使这些分散事件获得结构性关联。64%的美国人预期就业减少,这一比例与专家群体的69%经济乐观形成对位。中间地带是否存在?原文未提供交叉分析,但暗示了某种悲观共识:在新闻媒体、人际关系、选举议题上,双方同样不信任。

这一共识的缺席领域(经济/就业)恰恰对应AI部署的核心战场。技术乐观主义的社会契约,或许建立在将特定议题排除在公共讨论之外的基础上。

当奥利里的数据中心在警长护卫下推进,当年轻员工删除训练数据,当84%与44%的鸿沟被统计确认——我们面对的不是技术评估的技术性分歧,而是社会契约的重新谈判。斯坦福报告的价值,在于将这种谈判的紧迫性从后台推向前台。

技术能力的最终边界尚不确定,但权力配置的走向已有端倪。问题不再是AI能否造成承诺或威胁的效果,而是谁在定义这些效果的归属与度量。

如果"永久底层"的数学最终被证伪,这种证伪将由谁来执行?如果证实,抵抗的空间将在何处开辟?原文没有答案,但将问题以不可回避的方式提出——这或许是认知鸿沟本身所能达成的最大共识。