一
国内一个投资人前不久去了一趟硅谷,然后写了一篇很长的复盘,题目叫《全员 token-maxxing,一场没人敢停的军备竞赛》。 他叫孟醒,五源资本合伙人,之前做过滴滴自动驾驶公司的COO。
文章里有很多让人意外的东西:Meta 全员都在用竞争对手 Anthropic 的 Claude Code,代码安全这条天经地义的红线被扔到了一边;一个工程师一年消耗的 token 接近他自己的工资;硅谷一位工程师朋友一句让他记到现在的话:“我发现,硅谷自己都开始跟不上自己了。”
但那篇文章里最值得划线的,不是这些token 数字,也不是估值崩塌,是文章接近末尾时他写到硅谷朋友们“安全感”的那一段:
“这次硅谷行,反复听到朋友们在认真讨论同一件事:买比特币、建地堡、给家里装防弹玻璃,他们都不是开玩笑的语气。为CEO提供住宅安防的企业,创下了2003年以来的最高增长水平。”
最近硅谷流行种酸橙树。这种树枝条上长着4 英寸的尖刺,任何试图翻越的人都会付出代价。
《华尔街日报》报道过一栋 1500 万美元的“堡垒豪宅”:混凝土花盆里栽着一圈酸橙树,树丛后面是壕沟,壕沟后面是激光入侵探测系统,前门是 3 英寸厚的实心钢板配 13 道锁栓,屋内藏着一个 2000 磅重门的安全避难室,连景观设计都是防御工事。
然而,枪声还是响到了AI 大佬家门口。
4 月 11 日凌晨 4 点,一个穿Champion卫衣的 20 岁男孩,从德州专程飞到加州,手提煤油罐,站在 Sam Altman(萨姆·奥特曼)价值2700 万美元的豪宅门前,点燃了汽油弹扔了进去。一个半小时后,他出现在 OpenAI 总部,抄起椅子砸玻璃门,对保安喊:“我要烧了这里,杀光里面所有人。”
FBI 从他身上搜出了一份文件,标题是“你的最后警告”,里面列着多名 AI 公司 CEO 和投资人的姓名与家庭住址。两天后的周日凌晨,奥特曼的家再次遇袭,一辆本田轿车在门口短暂停留,副驾驶把手伸出窗外,朝房子开了一枪,然后逃逸。
马斯克本人也很担心被枪杀,这在硅谷圈子里是公开的秘密。
我之前写的一篇文章里提到过一个梗,在硅谷创业者圈子里这两年最热的一个词是“permanent underclass”,中文叫永久底层。讽刺在于:谈论这个词最多的人,不是即将沦为底层的普通工人,反而是亲手造出 AI 的那群硅谷精英。他们一边写着取代别人的代码,一边给自己家的窗户装防弹玻璃。
过去几年,硅谷一直在警告失控 AI 的风险。比如 AI 会不会拥有自主目标,会不会欺骗人类,会不会导致某种科幻式灾难。
但现在,硅谷醒悟过来的恐惧,变得更现实,也更刺痛人。它担心的不是机器人某一天突然拿起武器,而是另一件更日常的事:
大量普通人的工作被自动化替代,他们失去在经济系统中的筹码。当一个人不再被公司需要,不再被市场需要,不再被组织需要,他还剩下什么?
这才是“永久底层”真正指向的东西。它不是短期失业。也不是经济周期里的暂时低谷。
它意味着,一个人在技术系统中的位置被永久锁死。他不再是生产者,不再是谈判者,不再是可以通过学习、跳槽、创业、迁移完成上行的人。他变成一个被安置的人,一个被补贴的人,一个被娱乐内容填满时间的人,一个在经济上逐渐失去必要性的人。
更让人不舒服的是,硅谷自己已经开始为这种世界做准备。
二、
“我们都觉得普通人完蛋了,但我们不知道该怎么办”
这种荒诞感不是我编的。它直接出现在《纽约时报》这两天发表的一篇长文的第一句。文章的标题就叫《硅谷正严阵以待一个永久性底层阶级的出现》(Silicon Valley Is Bracing for a Permanent Underclass)。
文章开头就说:
“我认识的人工智能行业里的大多数人都认为,普通人已经‘完蛋了’(原文screwed,意为处境极其糟糕),而他们完全不知道该怎么办。”
写这句话的人住在旧金山,身边是拿着百万年薪的年轻AI 研究员、和争着做下一个独角兽的创业者。她在文章里提出一个概念,叫“旧金山共识”(San Francisco consensus)。这个共识不分立场,不分阵营,几乎横扫所有人:
无论你交谈的对象是工程师、风险投资家、创始人还是经理人,无论是末日论者(doomers)、加速主义者(accelerationists)、左翼分子还是自由意志主义者,所有这些人对 AI 给普通工人带来的影响,都持同一种悲观:
先进的AI 很快会超越人类的能力,带来巨大的经济增长和科学成就,但也会让维持经济运转所需的人力大幅减少,从而取代数以百万计的工作岗位。这项技术将压制经济流动性,加剧不平等,把权力和财富输送给 AI 公司和现有的资本所有者。
这种共识不是秘密。
它出现在Anthropic CEO Dario Amodei(达里奥·阿莫代伊)关于“白领大屠杀”(white-collar blood bath)的公开声明里;出现在科技高管们用 Signal(一款阅后即焚的加密通讯软件)互相吹嘘“我打算自动化掉哪个部门”的私聊截图里;出现在那些投了几百份简历却没拿到一次面试的应届毕业生的焦虑里;也出现在软件工程师们半开玩笑说“我现在的工作就是用 Claude Code 取代我自己”的自嘲里。
OpenAI 自己建立了一个基准测试叫 GDPVal,用 44 个职业(从房地产经纪人到新闻分析师)来量化模型的表现。负责这套评估的研究员说,几个月前刚发布时,还没有任何模型能达到人类专家水平,几个月后,与人类专业人士相比,模型的胜率已经超过 80%。她举的例子是身边一位以前做投资银行家的同事,“她不断地对模型能完成多少她以前的工作感到震惊。”
这篇《纽约时报》文章里有个耐人寻味的细节,藏在中间一句不起眼的括号里:
“总的来说,科技界的消息人士在私下交谈中,对AI对劳动力市场的影响表达了极其极端的担忧。但一旦我打开麦克风,他们就突然变成了乐观主义者。”
麦克风一打开,所有人都变成了乐观主义者。麦克风一关上,所有人都在算自己还能上车几年。
这不是某几个高管在演戏,这是一种集体性的双重生活。一个人可以在公司全员大会上讲“AI 将赋能每一个普通劳动者”,然后下班回家在 Signal 群里讨论自己计划替代掉哪个部门。一个 CEO 可以在媒体面前讲“丰裕时代来了”,然后在自家后院装上激光探测系统。这两件事是同一个人做的,而且他们之间没有任何认知失调。
Mechanize是一家以“实现经济全面自动化”为使命的初创公司,它的创始人在自己的博客里写得倒是很坦白:“唯一真正的选择是,究竟由我们自己来加速这场技术革命,还是等待别人在我们缺席的情况下来发起它。”
这套话术结构,在哲学上有一个专门的词,叫“道德前置免责”:只要相信趋势不可逆,行动就被免责了。我做这件事不是我的选择,是历史的选择。我不做,有别人做。所以我做了,我不必负责。
整个硅谷,正在用这套话术给自己披上一件免罪外衣。
三、
上车焦虑:每个人都在抢“最后一张船票”
这种“我知道这件事很糟,但我必须冲在最前面”的精神分裂,直接渗透进了硅谷工程师的日常生活,从存退休金、谈恋爱、健身,到生育和买地。
《商业内幕》(Business Insider)记者 Rob Price(罗伯·普莱斯)去年走访了一批湾区的 AI 从业者,采访结果让人有点眼界大开。这群人对未来的安排,要么极端到反常,要么反常到极端。
第一种人,不再为退休储蓄了。
Daniel Kokotajlo(丹尼尔·科科塔伊洛)是前 OpenAI 研究员,2024 年因为担心公司处理 AI 安全的方式而离职,今年发表了一篇广为流传的预测文章《AI 2027》。他从 2020 年开始就停止为退休储蓄,那年他 28 岁。Anthropic 研究员 Trenton Bricken(特伦顿·布里肯)在科技播客 Dwarkesh Patel(德瓦克什·帕特尔)节目里也分享了同样的决定:
“我很难想象一个世界,我所有的钱都静静地躺在那个账户里,一直等到我 60 岁,而到那时,世界的样子会如此不同。”
第二种人,在主动花光积蓄。
Haroon Choudery(哈龙·乔德里)是一位 AI 创业者,他父亲是巴基斯坦移民,做过出租车司机,母亲是家庭主妇。他把未来这几年看作“为自己和孩子创造代际财富的最后机会”。他的原话:“我有一笔可观的钱,特别是来自股权的,但我计划把它花光。我计划每年拥有的钱都比上一年少。”他说他知道还有很多 AI 研究员也在做同样的事。
第三种人,在从“聪明”转向“性感”。
Apoorva Srinivasan(阿普尔瓦·斯里尼瓦桑),洛杉矶的生物医学数据科学家,她说自己以前喜欢聪明的男人,现在标准变了。因为生成式 AI 正在取代越来越多人的智力劳动,纯粹的智力对她来说已经不如魅力、社交能力和外貌吸引力重要。或者用她在推特上半病毒式传播的那句话总结:
“如果你很聪明,那就转型变得又酷又性感吧。”
佛州科技创业者Soren Larson(索伦·拉尔森)一直在健身,他说:“当 AI 能做所有脑力活的时候,性感、风趣、幽默将成为稀缺特质。”
第四种人,在认真造地堡。
记者采访了一位化名“亨利”的湾区 AI 安全研究员,他自己在搞 DIY 生物防护所:买一顶现成的正压帐篷(平时用来做植物生长室),前面堆几层 HEPA 过滤器,里面塞满三年份的耐储存食品。整个成本不到一万美元。
亨利说他还要求记者用化名,“末日准备者(prepper)这个身份在社会上带有污名,特别是考虑到如果他的恐惧没有成真,人类最终安然无恙的话。”
这些人的安排单看每一项都很怪,放在一起看就有了一种结构性的形状。他们不再相信“工作 30 年后退休”这种叙事。在他们眼里,“30 年后”已经不是一个有意义的时间单位。他们也不再相信“积累知识、提升技能”是稳健的人生策略,既然 AI 会做所有脑力活,身体的吸引力反而成了稀缺品。
孟醒的文章里写到硅谷“全员 token-maxxing”的时候,捕捉到了同一种情绪的另一面:Meta 内部搞了一个 token 消耗排行榜,谁用得多谁上榜,末尾的可能被裁,所以 Meta 员工在卷一个叫“token legend”的非官方头衔。一边全员用 Claude Code 冲 token 量,一边大规模裁人。这两件事不是矛盾,是同一件事的两面。他们既是被 AI 替代的潜在对象,也是替代别人的执行者。
白天卷AI,晚上买地堡。这就是 2026 年湾区一位中位数 AI 工程师的日常。
四、
不止焦虑,他们还害怕被烧死
那个20 岁男孩从德州飞到加州烧奥特曼家这件事,不是孤立的。
3 月底,旧金山市中心已经出现了大规模反 AI 游行,人群举着“Stop the AI Race”(停止 AI 竞赛)和“Don't Build Skynet”(不要制造天网)的牌子,在 Anthropic、OpenAI、xAI 的办公室外面发表演讲。参议员 Bernie Sanders(伯尼·桑德斯)在国会警告说:“人类可能真的会失去对这个星球的控制。”
然后是奥特曼家门口那两次袭击。
然后是马斯克。据xAI 离职的朋友们透露,马斯克本人也很担心自己被枪杀,这在圈子里是公开的秘密。
然后是Palantir CEO Alex Karp(亚历克斯·卡普)。
Palantir 这家公司在硅谷有一种特殊的位置。它做的是政府监控和军工合同,客户里有 CIA、五角大楼、ICE。它的 CEO 卡普是出了名的鹰派,平时讲话总是把 AI 和“国家安全”“战略竞争”挂在一起。
但在今年3 月,卡普和卡车司机工会(Teamsters,美国最大的蓝领工人工会之一)主席 Sean O'Brien(肖恩·奥布莱恩)在一个公开座谈会上对谈。卡普在台上说了一段话,值得在这里完整引用:
“在这个国家,A.I. 面临的最大挑战是政治动荡。如果我私下和同行们坐在这里,我会告诉他们,这个国家可能会在政治上爆发,当这个国家爆炸时,我们谁也赚不到钱。”
这句话值得重视,因为卡普不是某个左翼经济学家,也不是某个工会领袖。是一个把卖技术给政府当作主营业务的、最理解权力运作机制的科技CEO。他在公开场合,当着卡车司机工会主席的面,说出了一句私下场合里所有同行都在说、但没人敢公开承认的话:
我们造的这套东西,可能会让这个国家炸掉。
他说这句话时不是在威胁,也不是在道德反思。他是在算账。他给同行算账:如果国家炸了,我们的钱也赚不成。
这句话无意中承认了一件事:他们知道自己造的不是“工具”,是一种正在系统性剥夺别人议价权的权力机器。如果你深信自己只是在做“中性技术”,你不会担心这个国家会爆炸,你也不会需要装防弹玻璃。
一个不会让别人愤怒到拿燃烧瓶上门的产业,不会需要装防弹玻璃。
五、
当“上车”变成新的精英意识形态
硅谷的“永久底层”焦虑,这两年正在成为一种全球精英共享的意识形态。这不是中文世界跟着翻译,是这种焦虑本身已经无国界。
我在之前的文章中提到过《华尔街日报》报道的一段话。一位叫Sheridan Clayborne(谢里丹·克莱伯恩)的年轻 AI 创业者说得没有任何修辞:“这是积累代际财富的最后机会。你必须现在赚钱,否则你就会沦为永久的底层阶级。”
推特上有一个流行的梗,精准捕捉到了这种荒诞:“你还有两年时间去做个播客(成为有影响力的人),否则就永远困在底层了。”
《纽约客》在2025 年10月发过一篇文章《人工智能会让你陷入“永久底层”吗?》,那篇文章里描述了一个观察:现在硅谷最受欢迎的员工原型,叫 “cracked twenty-two-year-old”,意思是技术强到变态、长期 996 工作的 22 岁年轻人。
文中有一个金句:
“大家非但没有变得政治激进,反而更加卖力地‘肝’。”
这很讽刺。在马克思的理论里,无产阶级一旦意识到自己被剥削,就会团结起来反抗。但在AI 时代,这套剧本根本没启动。人们意识到自己即将被替代之后,反应反而是更卖力地工作,拼命让自己成为“还有用”的那 20%。
《纽约客》那篇文章里还有一句话流传很广:
“你是想成为那头猪,还是成为那个做猪食的人?”
这里的“猪食”(slop)是 AI 时代的一个新词,指由 AI 批量生成、用来填塞人类注意力的廉价内容。这个比喻把“永久底层”的图景压得很实:一端是少数掌握算力、算法、核心数据资产的“喂猪人”,另一端是大多数失去经济价值的“被喂者”,靠 UBI(全民基本收入)和 AI 生成的虚幻娱乐活着。
这种话术在硅谷已经流通了两年。它从一开始的X上的玩笑梗,变成了《华尔街日报》、《纽约客》、《纽约时报》的严肃评论标题,变成了风投圈茶水间的真实焦虑,变成了上万亿市值公司CEO 在公开场合的发言。
但这套话术里藏着一件没被讨论的事。
“上车”这个隐喻假设了一个车上和车下二分的世界。它默认了一件残忍的事:被甩下去的人,没有谁会停下来等待他们。它把一个本应是政治问题的命题(谁分到 AI 红利、谁被强制承担代价),包装成了一个个人选择题(你抓不抓得住这个机会)。
这套话术最大的功能,是把社会断裂前置合法化了。
孟醒文章里那位投资人朋友的话,可以放在这里看清楚它的真实结构:
“反正要么 zero to 100,要么 zero to zero。”
硅谷的资本逻辑已经不再容纳“中间状态”。要么你是 100,要么你是 0。要么你在车上,要么你在车下。要么你是那个做猪食的人,要么你是那头猪。
中间地带没有了。
这是一种正在被预先合法化的社会断裂:在它真正发生之前,所有人就已经接受了它的语言。
六、
讽刺的悖论:他们造神,他们也害怕神
把硅谷的这套行为模式放在一起看,会发现一个奇怪的悖论。一群人,一边在拼命造一个他们自己相信会让大多数人变得多余的东西,一边在为“那个东西真的造出来之后的世界”做物理性的末日准备。
这是一种新型的、人类历史上很少见到的精神状态。
中世纪修建大教堂的工匠,相信自己在为上帝做工,这套信仰让他们的劳动有意义。曼哈顿计划的科学家,造完原子弹之后大多数人被深刻的道德挣扎笼罩了一辈子,Oppenheimer(奥本海默)说“我成了死神,世界的毁灭者”。这些人造出某种巨大的、超出自己理解的东西后,要么相信它有终极意义,要么被它的伦理重量压垮。
硅谷不是这两种。
他们既相信自己在造神,又相信这个神会让大多数人多余;他们既不为这件事提供宗教意义上的辩护,也不被它在伦理上压垮。他们的反应是:
继续造,同时给自家窗户装防弹玻璃。
这种内部矛盾不只是个体的精神分裂,它已经渗透到这些公司的内部话语结构里。Karen Hao(凯伦·郝)(MIT Technology Review 前资深记者,《大西洋月刊》撰稿人)2025 年 5 月的报道里,披露了 OpenAI 内部一个被称作“地堡”的故事。
2023年夏天,OpenAI联合创始人、首席科学家Ilya Sutskever(伊利亚·苏茨克维)在和一批新入职的研究员开会。他正在讨论一个计划,中间他说了一句:“等我们全员进入地堡之后……”
一位研究员打断:“抱歉,地堡?”
苏茨克维回答:“我们在发布 AGI 之前,肯定要先建一个地堡。”
他补充:“当然,是否进入地堡是你们自己的选择。”
另一位OpenAI 研究员后来告诉凯伦·郝:“有一批人,伊利亚就是其中之一,相信构建 AGI 会带来‘终极救赎’。真的,字面意义上的‘救赎’。”
Anthropic内部其实也有相似的紧张气氛。《纽约时报》、文章引用Anthropic联合创始人、Anthropic Institute负责人Jack Clark(杰克·克拉克)的一段访谈。记者直接问他:你也认为AI会创造一个永久底层阶级吗?
克拉克回答:“这基本上是一个社会选择。”他说自己很乐观,认为有“足够负责任的 AI 开发者和政策制定者”能让世界避开风暴。但当记者接着问Anthropic Institute 是否会为再分配政策(比如他自己提到的扩大教师、护理这类人际关系工作的份额)进行游说时,克拉克委婉地拒绝了,把政策倡导描述为“一条非常、非常长的工作链的末端”。
翻译过来:我们公司知道这件事很糟,我们公司认为这是社会选择,但我们公司不会为修复这件事而花政治资本。
这种“我们意识到了,但我们不会负责”的态度,在 Anthropic 内部员工身上表现得更剧烈。纽约时报文章里写,Anthropic 是镇上最令人向往的雇主之一,把火箭般蹿升的商业模式和“高尚的道德原则”结合在一起;但和员工聊天时,她听到一种“对自己正在引发的社会变革规模的存在主义眩晕感”。
许多工程师同时跑着多个 Claude Code 代理,给它们分配彻夜完成的任务,这样总有人(无论是人还是机器)在时刻工作着;他们一边每周工作 80 小时,一边讨论“后工作时代”(postwork)的乌托邦。
这套行为最深的含义,要从他们造的东西本身去看。
他们造的不是一个工具。
一个工具有边界,你可以用它,也可以放下它,它不会改变你怎么看待自己。他们造的是一种新的世界座架,把所有人,包括他们自己,都重新揭示为“可被替代的资源”。当一个人意识到自己也活在这个座架里时,他的反应可以是修改它,可以是拒绝它,也可以是给自己挖一个能熬过它的避难所。
他们选了第三种。
他们在造一个会让所有人(包括自己)变得多余的系统,然后在系统降临之前,先用钢板和酸橙树为自己围出一块“还能保持人类身份”的小地方。
这就是为什么他们既造神,又害怕神。
他们知道这个神不会区分施害者和受害者。它只会区分“还在车上的”和“已经下车的”。
而他们对自己能不能一直留在车上这件事,信心远没有他们公开宣称的那么足。
七、
如果连那些造出AI 的人,都已经开始为“普通人完蛋了之后的世界”做物理准备,那么所谓的“最后窗口期”,到底是给所有人的最后机会,还是只是少数人为自己留好出口的最后时间?
这个问题在中文世界还没有真正被问出来。所有讨论AI 的国内文章,基本上分两类:一类讲 AI 多厉害,催你赶紧学;一类讲 AI 多可怕,催你赶紧上车。两类文章共享同一个叙事前提,即你是那个还有机会、还需要选择的主体。
这个前提本身,本身就值得怀疑。
孟醒在硅谷半个月,回北京飞机上翻完笔记,发现从头到尾都在写同一个词:跟不上。
YC 跟不上、Meta 的代码安全规矩跟不上、xAI 的管理跟不上、研究跟不上、算力跟不上、估值框架跟不上、社会的心理承受力也跟不上。他写,“以至于硅谷自己都跟不上自己了。”
但还有一种东西也在跟不上,那就是:
我们的语言。
我们手上拿着19世纪的社会契约,在签 22 世纪的合同。我们用“上车”、“转型”、“学习曲线”这些工业时代留下的词汇,去描述一个可能正在让“工作”这个概念整体失效的转变。我们用“中产阶级焦虑”这种 20 世纪的诊断,去描述一种在硅谷已经具体到买防弹玻璃和酸橙树的存在性恐惧。
旧的语言还在跑,但它解释的世界已经不存在了。
我倾向于认为,真正的危险不是AI 让大多数人失去工作,而是大多数人在失去工作的同时,还在用旧的词汇相信自己只是“暂时落后”。当一个人不知道自己被什么东西打中了,他就连还手的方向都找不到。
在硅谷,他们已经在用酸橙树、防弹玻璃、激光探测系统、煤油罐、燃烧瓶、和那一串列在“最后通牒”上的家庭住址,回答这个问题。
我们这边的回答,可能要更慢一点。【懂】
经叔最近做了一个网站:https://budongjing.com
人肉筛选挖掘的硬核优质内容及深度原创,重点关注科技、文化、财富、权力四大要素以及它们之间的互动与影响。网站定价1999元/年,目前内测优惠价1299元/年,感兴趣的读者可以加经叔微信订阅。
另外,欢迎加入经叔的知识星球。在这里,我们拒绝无用的焦虑,只谈底层的逻辑与实战的干货。我会结合最新的AI前沿动态、深度的商业创新分析(如一人企业的构建)和独特的文化思潮(如麦克卢汉的媒介洞察),帮助大家把握时间窗口。
我是不懂经的经叔,国内最早翻译介绍了纳瓦尔的《如何不靠运气获得财务自由》,以及影响了纳瓦尔、中本聪、马斯克等大佬的《主权个人》。
不懂经知识星球,众多百万粉丝大V、千万及亿万富翁订阅。专注分享一人企业、一人创投主题,关键词:AI、IP、创投、科技及商业前沿的高杠杆内容。
愈懂愈自由
热门跟贴