去年,OpenAI CEO Sam Altman发布了一篇题为《温和的奇点》的博客,阅读量接近60万。文章的核心论点可以用一句话概括:AI全是好处,没有坏处,未来只会更好。

Altman描绘了一幅机器人自我复制的图景——先手工制造100万台人形机器人,然后让它们接管整个供应链:挖矿、精炼、运输、建厂,再制造更多机器人和芯片工厂。他称之为"自我强化的循环",认为技术进步会因此加速,而人类"几乎能适应任何事情"。

整段论述中最刺眼的一句话是:"会有非常艰难的部分,比如整类工作消失,但另一方面,世界将迅速变得如此富裕,以至于我们能够认真考虑以前从未想过的新政策。"

这种"先吃苦后享福"的叙事,被作者直接类比为"青少年在吸食大麻和看了太多《星际迷航》后写的第一本科幻小说"。Altman的乐观并非孤例。整个AI行业的顶层叙事正在呈现一种奇怪的割裂:技术领袖们在公开场合谈论的,与他们在实验室里实际建造的,似乎是两个完全不同的东西。

技术乐观主义的流水线生产

技术乐观主义的流水线生产

Altman的博客并非偶然产物。OpenAI的公关策略始终围绕一个核心:将AI包装成不可避免的进步,同时淡化其结构性风险。这种策略的效果显著——60万阅读量意味着它成功触达了远超科技圈的人群,包括政策制定者和投资者。

但文章的论证方式值得细究。Altman用"工业革命后的职业变迁"作为历史参照,暗示失业问题会自然解决。这个类比的问题在于:工业革命花了150年完成社会转型,而AI对劳动力市场的冲击速度可能是其10倍。时间尺度的压缩,意味着"适应"的成本将由特定世代集中承担,而非平滑分摊。

更微妙的是修辞策略。Altman将潜在的社会契约变革描述为" gradual changes will have amounted to something big"——渐进变化终将累积成重大变革。这种表述巧妙地将结构性冲突转化为时间能消化的摩擦,仿佛只要足够耐心,制度创新会自然涌现。

现实是,政策创新从来不是技术进步自动触发的副产品。全民基本收入(UBI)的讨论已经持续二十年,但试点项目至今停留在城市级别。技术乐观主义的问题不在于它预测了错误的方向,而在于它假设了不存在的社会自动调节机制。

实验室里的人在担心什么

实验室里的人在担心什么

与公开叙事形成对照的,是AI研究者内部的焦虑。2023年,一项针对机器学习研究者的调查显示,超过半数受访者认为高级AI系统有至少10%的概率导致"人类灭绝或类似严重的永久性灾难"。这一比例在2022年仅为三分之一。

这种担忧并未转化为公开的制动机制。相反,它催生了另一种话语:安全研究本身成为竞赛的一部分。OpenAI、Anthropic、Google DeepMind 都设立了"对齐团队",但团队负责人的离职频率揭示了张力——2024年,OpenAI的安全主管Jan Leike在离职时公开批评公司"将产品优先于安全"。

Leike的离职信提供了一个关键视角:「安全文化和流程被闪亮的产品抛在后面。」这句话的尖锐之处在于,它来自内部人士,且针对的是一家以"开放"和"安全"为品牌核心价值的机构。

产品优先于安全的逻辑,在Altman的博客中体现为对" downside"的系统性回避。整篇文章没有提及数据中心的能源消耗、训练数据的版权争议、推荐算法的政治极化效应,或自动化对发展中国家出口导向型经济的冲击。这些不是边缘问题——它们是当前AI部署中正在发生的现实。

机器人复制的经济学幻觉

机器人复制的经济学幻觉

Altman关于机器人自我复制的论述,暴露了一种特定的思维盲区。他假设一旦突破初始制造门槛,供应链的自动化将呈指数级展开。这个模型忽略了三个摩擦点:

第一,物理世界的复杂性远超数字领域。自动驾驶汽车的商业化已经比预期晚了至少五年,原因不是算法精度,而是边缘案例的无限性和监管责任的分配。人形机器人在非结构化环境中的可靠性,目前仍停留在实验室演示阶段。

第二,"自我强化"假设了能源和原材料的无限供给。芯片制造需要高纯度硅、稀土元素和极端洁净的环境控制。机器人采矿可以降低劳动力成本,但无法绕过热力学定律和地质分布。当Altman写道"它们可以建造更多芯片工厂"时,他省略了建设周期、资本密集度和地缘政治审查。

第三,经济激励的错位。即使技术上可行,谁将拥有这些自我复制的机器人?Altman的论述隐含了一个未言明的前提:技术扩散的收益将自动惠及广泛人群。但历史记录显示,自动化技术的所有权高度集中,而收益分配取决于制度设计而非技术特性。

将技术可能性直接等同于社会福祉,是硅谷叙事中最顽固的认知捷径。

适应的代价由谁支付

适应的代价由谁支付

Altman关于人类适应能力的论断——"人们几乎能适应任何事情"——在心理学意义上或许成立,但在社会学意义上是一种推卸。适应不是无成本的:它涉及技能重训的时间投入、收入中断的财务压力、身份认同的心理重构,以及代际机会的不平等分配。

工业革命的参照再次显得轻率。19世纪的英国工人经历了"恩格斯停顿"——实际工资在1840年前持续下降,人均寿命在工业城市缩短。适应最终发生,但花了两代人的时间,且伴随着剧烈的社会冲突。Altman的" gradual changes"修辞,将这种血淋淋的历史平滑化为自然过程。

更紧迫的是当前语境下的适应速度。当Altman写下" whole classes of jobs going away"时,他指的是什么?客服、翻译、基础编程、图像设计——这些不是抽象的职业类别,而是数百万人的生计来源。2023年至2024年,Upwork平台上的平面设计需求下降了至少30%,而AI生成工具的使用量同期激增。

适应的叙事隐含着一种道德判断:未能适应者是个人的失败,而非系统设计的缺陷。这种框架将结构性失业转化为个体责任,为政策不作为提供了心理掩护。

富裕的幻觉与政策的真空

富裕的幻觉与政策的真空

Altman承诺的"世界将迅速变得如此富裕",需要拆解其经济含义。GDP增长与个体福祉的脱钩,在发达经济体已是既定事实。美国的人均GDP自1980年以来增长了约80%,但中位数工资的增长远低于此,而工作时长、住房成本和教育支出的压力持续上升。

AI驱动的生产率提升,如果遵循类似的分配模式,将加剧而非缓解这种脱钩。技术乐观主义者假设"更多"自动意味着"更好",但福利经济学的一个基本洞见是:效用的边际递减和相对位置效应意味着,增长的红利在高度不平等的社会中迅速稀释。

Altman提到的"新政策想法"至今缺乏具体轮廓。UBI是最常被引用的候选方案,但其融资机制、与现有福利体系的整合、以及政治可行性均未解决。更根本的是,UBI假设了技术失业的不可逆性,这与Altman同时声称的"我们会找到新的事情做"存在内在张力

如果新工作自然涌现,为何需要全新的社会契约?如果新工作不会涌现,为何对此如此乐观?Altman的论述同时占据了两个互不兼容的位置,避免了任何可证伪的承诺。

叙事的力量与沉默的成本

叙事的力量与沉默的成本

回到那篇60万阅读量的博客。它的影响力不在于论证的严密性,而在于它提供了一种情感框架:技术进步是不可阻挡的洪流,抵抗是徒劳的,唯一理性的选择是冲浪。这种框架服务于特定的利益配置——它降低了公众对监管干预的支持,为资本密集型技术的快速部署创造了舆论环境。

作者对Altman的批评,本质上是对这种叙事策略的揭露。当技术领袖的公开言论被描述为"hustles"或"pitches"时,它指向了一个被低估的问题:在AI治理的公共讨论中,谁的声音被放大,谁的经验被边缘化?

2024年的一个标志性事件是,好莱坞编剧工会(WGA)经过148天罢工,成功将AI使用限制纳入合同条款。这与Altman的" gradual changes"叙事形成对照:不是等待自动适应,而是通过集体行动塑造技术部署的边界。这类胜利在公共话语中获得的关注,远不及技术领袖的博客帖子。

叙事的不对称性意味着,关于AI未来的想象被高度集中地生产,而其代价被分散地承担。

文章结尾,作者抛出了一个未回答的问题:当Altman写下"我们将为彼此建造越来越美好的事物"时,他是否环顾过现实世界?这个反问的尖锐之处在于,它不需要统计数据或技术细节来支撑——它诉诸的是读者自身的日常经验,关于平台经济的零工化、关于注意力经济的碎片化、关于"创新"话语与实际生活质量之间的落差。

如果60万人愿意阅读一个关于温和奇点的承诺,那么关于不那么温和的现实的讨论,值得同等的注意力吗?