全文 5,000字 | 阅读约 23 分钟
(独家对话:1亿美元挖角战背后的AI行业真相)
过去三周,硅谷上演了一场“1 亿美元抢人大战”——
Meta Superintelligence Labs(MSL)刚成立,就向 OpenAI、Anthropic、Google DeepMind等企业员工发出史无前例的报价:首年总包超 1 亿美元,四年封顶 3 亿美元,只为争抢极少数超级智能工程师。
同一时间,Anthropic 联合创始人 Ben Mann 却在 7 月 20 日的播客中给出了截然不同的观点:
生产率如果再翻一层,约 20% 的岗位将被重新定义,甚至直接消失。
他借用一个衡量拐点的概念:“经济图灵测试”(Economic Turing Test)——当一半以上的真实任务可以由 AI 完成,且企业愿意为此支付同等工资,测试便算通过。
换句话说,AI 不再只是工具,而是‘正式员工’了。
这一刻,个体与组织的焦虑同时放大:
一边是 1 亿美元的天价薪酬,一边是 20% 的岗位消失。
企业疯抢 AI 专家,又担心模型打破传统组织架构;
个体仰望巨额 offer,同时也要直面被时代抛弃的可能。
但 Ben Mann 给出的选择,是“坚持”:
在 Meta,我最多就是帮公司赚钱; 留在 Anthropic,我还能推动 AI 往好的方向走,让人类受益。
本文脉络:
薪酬极值:公司的算账逻辑和行业风向标
经济图灵测试:它为何可能成为下一个 AGI 关键节点
20% 岗位位移:冲击路径、受影响行业与对冲清单
从这张 1 亿美元的 offer 说起,看清 AI 的新战场——你,是升级,还是出局?
第一节|1 亿美元 offer,值在哪?
我很确定这是真的。
Ben Mann 在访谈中这样确认了Meta 开出 1 亿美元签约总包的传言。他强调,这并不是一场浮夸的竞价,而是符合市场规律的冷静选择:
“如果某个人能让模型的推理能力提高 1%、5% 或 10%,那么对公司的业务来说,那个价值是不可思议的。”
换句话说——在 AI 时代,最贵的资源不是芯片,而是能把智能推进哪怕一小步的人。
Ben 自己曾是 GPT-3 的核心开发者,也是当年帮助 OpenAI 从微软拿到 10 亿美元融资的关键人物。他深知每一次技术突破背后的巨大商业价值。
他说:
“如果你推演资本支出的增长——现在整个行业每年大概花 3000 亿美元在 AI 上——几年后这个数还会翻几倍。到了那个时候,1 亿美元的薪酬真的就只是小数点。”
在他看来,这场抢人大战,并不只是名利诱惑,而是一场关于“未来 AI 主导权”的争夺。
✅ 为什么他没有离开 Anthropic?
面对 Meta 的高薪挖角,Ben 并没有选择离开。他坦率地说:
“我不是不理解那样的 offer,也不会去指责那些选择的人。但我留下来,是因为——在 Meta,我能赚到钱;在 Anthropic,我可能改变 AI 的未来。”
在 Anthropic,Ben 主导的是 AI 安全对齐方向。他认为,AI 不只是一个模型问题,而是一个“整个人类能否控制技术走向”的生存性问题。
而这场技术竞速中,最难的,并不是参数调大,而是——
“我们该如何提前给 AI 装上可靠的‘价值观护栏’,防止它在变强之后偏离人类目标?”
他认为,这个问题,比谁先发布更强模型、谁先接入更多用户,更值得花时间、花心血去做。
✅ 比钱更重要的,是“谁定义方向”
Ben 在访谈中不止一次提到“这次真的不一样了”。
过去我们衡量一家公司的竞争力,看的是人、地、资金。但在他看来:
“我们正处在一个前所未有的规模时代。技术的边际影响越来越大,公司之间的差距也可能越来越大。”
这意味着,AI 企业之间的差距,不只是模型参数或算力水平的不同,而在于团队的认知格局和价值选择。
如果说过去 10 年,AI 还是工具竞争;那接下来的 5 年,将是价值路线图的较量。
Ben 所代表的 Anthropic,在这场竞争里,选择了一条更慢、但更稳的路线——他们强调模型对齐、安全机制、解释透明度,而不是单纯的能力冲刺。
而他的选择,也成为一个信号:
不是所有人都为 1 亿美元而来,有些人是为“可控的未来”留下的。
在超级智能加速逼近的时代,一个人真正的价值,或许不是你能做什么任务,而是你能在关键时刻,朝哪条路前进。
第二节|AI 的下一步,是不是你的位置?
Ben Mann 在访谈里说了一句话,很多人一听可能会觉得过于激进:
至少 20% 的岗位将被重塑,甚至直接消失。
但他接着强调,这并不是预测,而是事实正在发生。他列举了两个具体例子:
✅ 第一条线:95% 的代码,现在是 Claude 在写
Ben 说,Anthropic 的 Claude Code 模型,已经能完成绝大多数开发任务:
“我们团队目前有 95% 的代码,是由 Claude 写出来的。”
这不是辅助写代码,而是整个开发流程发生了变化:
以前是工程师主导思考、AI 辅助输出;
现在是 AI 起草大部分内容,人类开发者做结构审查和微调;
结果是:团队人手没有变,但开发速度快了 10 倍。
他们现在写的代码量是以前的十倍,但团队规模并没有扩大。
这背后的本质,是AI 已经成为程序员的第二大脑,不仅仅是一个“自动补全”工具,而是“能独立搭建复杂逻辑结构”的合作者。
✅ 第二条线:82% 的客服问题,无需人工处理
除了写代码,Ben 还提到 AI 已经接管了大量客户服务的工作。
他以合作伙伴全球领先即时通讯企业 Intercom 为例:
他们 82% 的客户问题,都已经可以由 AI 模型独立解决, 不再需要人工介入。
换句话说,大量用户每天接触到的客服答复,其实背后不是真人,而是 Claude 或其他模型在处理。
Ben 解释说:
“对于原本需要人来判断、选择、回复的问题,现在模型能快速总结上下文、抓关键词、调用知识库,完成整个闭环。”
这不只是成本优化,更是一种组织结构的改变。
而对于人类客服人员来说,变化也并不意味着立刻下岗,而是角色重新定义:
简单、重复的问题交给 AI;
人类员工可以处理更复杂的投诉、更重要的客户沟通。
Ben 认为:
“他们过去很多票据都得放弃处理,因为太耗时间。现在 AI 帮他们腾出了精力,能专注在真正值得人工解决的事上。”
✅ “20% 岗位将消失”,不是夸张,而是趋势正在形成
为什么 Ben 会用“20% 的岗位将被重塑”这样的判断?
因为他看到的是指数曲线:很多人无法理解指数式增长。当曲线还在平坦时,看不出变化;但一旦进入加速区,一切都会变得非常快。
他回忆自己第一次强烈感受到 AI 变革的时刻,是在 2019 年 GPT-2 发布时。那时他就觉得:
这就是我们将如何到达 AGI 的方式。
而到了 2022 年底 ChatGPT 面世,大多数人才开始意识到:哇,有些东西真的在变了。
我们不需要等十年。很多行业的工作内容,正在逐步被 AI 接管,而且不会停下来。
他明确指出:
“很多人觉得,‘我的工作还好啊,没什么变化’,是因为他们没看到——AI 已经在处理原本你每天要做的那些小任务了。”
真正的转折点不是你被裁员,而是当一个团队开始用 AI 跑流程时,你不再是必需角色,而只是备选之一。
这,就是他所说的“岗位位移”。
第三节|AI 的“人设”是怎么设计的?
Ben Mann 在访谈中提到一个被很多人忽略的问题:
“我们现在看到的 AI,已经越来越擅长内容输出了。但真正关键的是,它能不能理解你要什么,而不是你说了什么。”
他担心的是,大多数用户只看表面上的“AI 回答得挺像样”,却没有意识到它可能只是在“模仿人类的语气”,而非真的理解背后意图。
这就是他所说的 AI 对齐问题本质:
AI 能不能把人类说的话,正确翻译成人类真正想要的结果?
这也是为什么 Ben 和他的团队要为 Claude 设计“人格”与“价值护栏”的核心原因。
✅ 什么是“宪法 AI”?
Ben 提出了一个关键方法论:宪法 AI(Constitutional AI)。
通俗来说,就是用一套固定原则,教会模型什么可以说、什么可以说,而不是每次都靠人去评估输出内容。
他的理解是:
“我们给模型制定了一组自然语言写成的原则,比如‘人应当彼此友善’、‘不能主动鼓励违法行为’、‘不得泄露他人隐私信息’。这些原则有的来自《联合国人权宣言》,有的来自苹果隐私条款,也有一些是我们根据用户反馈总结出来的。”
整个流程很简单:
模型收到用户问题后先给出自己的回答;
再对照宪法原则,自己批评自己的答案是否违规;
如果发现问题,它会重新改写一版更“对齐”的答案;
最后只保留这份合规的新输出。
Ben 强调:
“这个过程不需要人来打分,它完全是 AI 自我评估、自我修正的一次迭代。”
这就像给 AI 请了个“道德顾问”,每次回答问题前都要先咨询一下对不对。
✅ Claude 的“温和个性”是什么?
很多人喜欢 Claude,是因为它更“克制”、更“有礼貌”、更“不瞎说”。
Ben 给出了背后的原因:
“Opus 3 出来后,大家最喜欢的一点,其实是 Claude 的个性。这不是巧合,而是我们对齐研究的直接成果。”
他说,这种“人格化”表现并不是靠事先编程,而是通过宪法 AI 这样的训练方法,从根上植入一套行为习惯。
甚至 Claude 拒绝某些敏感请求时的表达方式,都是有意设计过的。
“不是直接说‘我不能帮你’,而是让用户感受到它理解你的意图,但也明确解释为什么不能协助你。”
比如:
面对医学建议类问题,它会提示“请咨询专业医生”;
面对危险行为类提问,它会温和地引导用户远离风险。
这背后的底层逻辑是:
理解人类的真实需要,而不是表面语言——这才是真正有价值的 AI。
✅ RLAIF:AI 自我改进的下一步
除了给它规矩,Ben 还谈到了另一种方法:RLAIF(来自 AI 反馈的强化学习)。
这和我们熟知的“RLHF”(来自人类反馈的强化学习)相比,关键不同在于:
RLAIF 是让 AI 自己训练自己,不需要人类一步步打分。
举个例子:
模型 A 写了一段代码;
模型 B 来审查这段代码是否正确、可维护、是否符合规范;
如果发现问题,模型 A 再重新写一版;
不断迭代,直到输出更优版本。
Ben 总结:这让我们更容易扩展训练流程,而不用耗费大量人力去标注每一条数据。
但他也坦言:
“这条路会撞到一个墙——如果模型本身理解能力不够强,它就无法准确判断自己的错误。”
换句话说,RLAIF 是可行路径,但也有风险。
✅ 对齐,不是锦上添花,而是必须先做
很多公司习惯先卷模型能力,等出了问题再补上“对齐补丁”。
但 Ben 的观点是反过来的:
“我们一开始也以为能力和安全是对立的,后来发现,对齐研究不但没有拖慢能力,反而推动了模型表现。”
他指出,Claude Opus 的成功,离不开核心研究员 Amanda Askell 领导的对齐团队对个性、原则和拒绝策略的精细打磨。
正是这些看起来无关紧要的细节设计,让 Claude 更受企业和个人的信任,更易被大规模部署。
Claude 的人格背后,是一整套"安全优先"的工程思维。
这种思路,恰恰是组织面对 AI 时最该学的——不能只追求让它更强,更要让它听话、可信。
第四节|AI 爆点,可能就在 2028 年?
Ben Mann 并没有用抽象的术语来谈 AGI(通用人工智能),他给出了一个明确、实际的看法:我认为,在几年的时间里,我们就可能看到某种形式的超级智能。
当主持人问他有没有具体时间线时,Ben 没有回避。他直接回应:
《 AI 2027 》报告预测的是 2028 年,我觉得这是合理的时间点。
他说,这并不是凭空猜测,而是结合三方面的数据趋势做出的判断:
智能能力正在指数式提升;
训练算法和后训练技术持续进步;
数据中心、电力和硬件扩容速度前所未有。
简单说就是:我们不是在“等待超级智能”,而是在按计划“制造超级智能”。
✅ 不是“像人类”,而是“能完成工作”——经济图灵测试来了
那么,什么样的 AI 才算是达到了“超级智能”的门槛?
Ben 提到了一个他很认同的概念——经济图灵测试(Economic Turing Test)。
他解释说:
“如果一个 AI 代理可以在某份工作上连续表现良好,最后被雇主认定为合适人选——哪怕他事后才知道这是台机器——那么,这个模型就通过了那份工作的经济图灵测试。”
说白了,就是看 AI 能不能真的被雇来当员工,拿工资干活。
这比“聊天像人”的标准严格多了,也更贴近现实——不看你说得多像人,只看你干活行不行。
Ben 甚至建议,我们可以像统计通胀一样,选出一批代表性工作作为“测试清单”:当 AI 能胜任其中 50% 时,就说明 AI 革命真正到来了。
这意味着什么?
不是某个模型偶尔答对一道题;
而是稳定地承担了整个专业团队的工作。
这,才是真正的临界点。
✅ 判断信号:GDP 增速将不再是 3%,而是 10%+
Ben 提出另一个量化信号:当全球 GDP 增速超过 10%,我们就知道,一定有了‘非人类’生产力的巨大注入。
目前全球 GDP 年均增长大概是 3%。如果出现三倍增长,不是因为人们工作效率突然变好了,而是因为某种技术——比如 AGI——开始大规模介入价值创造。
他进一步指出:
在那样的世界里,我们甚至很难再用传统经济学框架来理解‘工作’。
商品和服务将以过去难以想象的速度增长,很多岗位也将被彻底改变。
✅ 变化不是"瞬间发生",但留给我们的时间不多了
Ben 对超级智能的到来很确定,但谈到变化速度时却很理性: 即使超级智能真的来了,它对社会结构的影响,也需要时间才能显现。
原因在于——
现实社会制度有惯性,组织习惯不会瞬间改变;
很多法律、监管、伦理框架需要重新设计;
企业和个人的信任建立,也不是一夜之间发生。
他引用科幻小说家 Arthur C. Clarke 的一句话:未来已经到来,只是分布得不均匀。
但这个窗口正在快速缩小。
Ben 在访谈最后特别提醒:很多人还在把 AGI 当作“技术竞赛的终点”,但我想说,它是社会问题集中爆发的起点。
一旦通过经济图灵测试,AI 将成为正规劳动力市场的一员:
它能被雇佣;
能产出;
能创造利润;
随之而来的失业、劳动重新分配、税基重构等问题,会在相对短的时间内密集出现。
现在技术变化还比较缓慢,给了我们宝贵的准备时间。但一旦跨越临界点,留给调整和适应的时间会急剧压缩。
他呼吁:
“对齐、安全、治理……所有这些问题,都不能等到超级智能出现后才开始处理。”
否则,我们不是迎来一个新同事,而是一个我们无法理解、无法控制的“智能黑箱”。
第五节|下一代,要学什么?
Ben Mann 有一个女儿,他在访谈中分享了一个耐人寻味的细节:
“我和我太太谈过这个问题——如果我们的孩子将来要参与一个高度自动化的世界,她该学什么?”
答案出人意料,但也朴素:
我要教她如何和 AI 合作。
这句话背后,其实藏着一整套世界观转变:
过去的教育是:学技能,靠自己。
未来的教育是:学协作,调动 AI。
Ben 甚至认为,“与 AI 共处的能力”,会成为像识字、打字一样的基础素养。
最关键的是,你要理解它的优势,也要清楚它的盲点。这样你才知道该靠它做什么,又该自己做什么。
这不是“学会用 AI 工具”的问题,而是“形成 AI 合作思维”的问题。
一、AI 不是对手,而是“能力的放大器”
Ben 也承认:
“AI 并不会自动让所有人变得更强,它只是会放大你原本就有的能力。”
比如:
一个不善表达的人用 AI 写报告,效果可能平平;
但一个善于结构思考的人,用 AI 来润色、生成数据图表、总结趋势,能事半功倍。
他给出这样结论:AI 的出现,不是把你变成更好的人,而是让你的优势更明显、短板更致命。
这就意味着——你必须先搞清楚自己擅长什么,再去决定让 AI 辅助你哪一部分。
他建议每个人都可以尝试分步思考:
哪些是重复性强、规则明确的工作?交给 AI;
哪些需要判断力、人情感、现场协作的?保留人来做;
哪些任务可以共同完成?建立人机协作流。
二、AI 时代的“高薪技能”,是调度力和团队力
Ben 在 Claude 的开发中,深刻意识到:未来最值钱的不是“代码能力”,而是“组织能力”。
他说:
“我们在做 Claude 的时候,花很多时间研究‘如何设计一个系统,让多个模块协作完成任务’。”
这和企业管理者要解决的问题,其实是一样的:
多个成员各有所长;
任务复杂,不能一个人包办;
你得安排谁做什么、什么时候接力、怎么统一输出。
Ben 把这个能力称为:
“任务分配 × 工具调度 × 协作整合”三位一体的组合能力。
这才是未来打工人的必备技能。你不是独立完成任务的人,而是能协调一组 AI 帮你完成工作的人。
你可以不最聪明,但得最会分工。
三、在 AI 时代,什么能力最重要?
Ben 在 Claude 的用户观察中发现:有效使用 Claude 的人,和无效的人,最大区别在于:他们敢不敢提有挑战性的任务。
换句话说—— 不是你用的 AI 有多强,而是你有没有能力说清楚需求,发挥它的作用。
这背后考验的是两件事:
表达意图的能力
协调多智能体的能力
这意味着传统的'背书考试'教育模式正在失效。
也正因此,他的育儿理念也变了:
10 年前我可能会让她努力进名校, 但现在,我只想让她快乐、深思、好奇、善良。
在 AI 能做大多数事情的时代,人类的价值不再是做得比 AI 好, 而是知道让 AI 做什么,并组织智能去完成。
结语|AI 不是要变得像人,而是帮助人过得更像人
从“判断对齐”到“经济图灵测试”,Ben Mann 提供的不是空洞概念,而是清晰的 AGI 路线图。
这不是终局宣言,而是一种洞察:
超级智能不会一夜降临, 它会先建立信任,然后被雇佣,最终渗透到生活各个角落。
未来不会等你准备好才到来。 它正在你身边落地——悄无声息地改变工作、产品、协作方式。
下一阶段的 AI,不是模仿人,而是让人更有判断、更擅协作、更像自己。
那些能主动适配、主动协同、主动定义角色的人,
不只是跟随者,而是建设者。
你无需成为科学家,
只要会用智能,去成就你自己。
这,就是我们普通人面对超级智能时代,最现实的答案。
本文由AI深度研究院出品,内容整理自Ben Mann在Lenny播客的最新访谈。未经授权,不得转载。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
https://www.youtube.com/watch?v=WWoyWNhx2XU&t=1078s&ab_channel=Lenny%27sPodcast
https://www.businessinsider.com/anthropic-meta-offer-ai-talent-war-poaching-startups-2025-7
https://www.lennysnewsletter.com/p/anthropic-co-founder-benjamin-mann
https://www.wired.com/story/mark-zuckerberg-meta-offer-top-ai-talent-300-million/
https://finance.yahoo.com/news/anthropic-co-founder-says-agi-104611649.html
https://podwise.ai/dashboard/episodes/4761991
来源:官方媒体/网络新闻,
排版:Atlas
编辑:深思
主编:图灵
热门跟贴