这几天,一条推文在 X 上掀起了不小的水花。剑桥大学学者 Henry Shevlin 宣布,他即将加入 Google DeepMind,职位名称是“Philosopher”——哲学家,一个白纸黑字写在录用通知书上的正式头衔。截至目前,这条推文被浏览了超过 160 万次,点赞逾 1.6 万。评论区的情绪从惊讶到困惑再到兴奋都有,大家基本都在发出同样的疑问:等等,AI 公司真的在招哲学家?

答案是肯定的,而且这还不是 AI 公司们第一次这么做。

要理解 DeepMind 为何选中这位哲学家,不妨先看看 Shevlin 的研究方向。他在剑桥大学莱弗休姆未来智能中心(Leverhulme Centre for the Future of Intelligence)担任副主任,长期研究机器意识、非人类认知以及 AI 系统的道德地位。他写过的论文题目包括“我们怎样才能知道一个机器人是否具有道德客体身份”和“非人类意识与特异性问题”。

(来源:X)
打开网易新闻 查看精彩图片
(来源:X)

他的学术生涯,就是在回答一个听起来像科幻小说的问题:如果我们造出的东西有一天可能具有某种意识,我们该怎么办?

Shevlin 认为,如今强拟人化 AI 的出现正在迫使意识科学面对一个尴尬的现实:关于“AI 是否有意识”的哲学争论将越来越无关紧要,因为公众会基于行为直接赋予 AI 意识。这既是一场科学危机,也可能是一次理论革命的契机。

他既认为意识纯粹是内部事实,也不接受彻底的行为主义(认为意识纯粹是外部解释),而是主张一种温和的、解释主义的立场:意识的归属应综合考虑科学事实、公众行为互动以及伦理需求,最终可能会通过一种“社会公约”来解决。

(来源:Henry Shevlin.com)
打开网易新闻 查看精彩图片
(来源:Henry Shevlin.com)

DeepMind 为他设定的三个工作方向也佐证了这一点:机器意识(machine consciousness)、人类与 AI 的关系(human-AI relationships),以及 AGI(Artificial General Intelligence,通用人工智能)准备就绪度。这大概是因为 DeepMind 认为,自己极有可能造出同时引发这三个问题的东西,而它希望在那一天到来之前就备好答案。

事实上,DeepMind 在哲学和伦理领域的布局早已开始。早在 2017 年,DeepMind 就正式成立了伦理与社会研究部门(DeepMind Ethics & Society),专门探讨人工智能带来的伦理与社会影响。

由牛津大学政治理论学博士 Iason Gabriel 作为内部 AI 对齐哲学基础研究的核心负责人。他也在 2024 年登上了《时代》杂志评选的“AI 领域最具影响力的 100 人”榜单。《时代》对他的描述是:“在大型科技公司中,他是一个罕见的存在:一个政治理论学家。”

(来源:TIME100)
打开网易新闻 查看精彩图片
(来源:TIME100)

他发表在《思维与机器》(Minds and Machines)上的论文《人工智能、价值与对齐》(“Artificial Intelligence, Values and Alignment”)被引用超过 1,700 次。2024 年,Gabriel 还牵头发布了一篇关于高级 AI 助手伦理问题的大型研究报告,汇集了数十位作者,其中包括哲学家 Shannon Vallor 和 Michael Klenk。这篇报告被视为迄今对 AI 助手社会与伦理问题最系统的学术处理之一。

所以,当外界对 Shevlin 的入职感到诧异并纷纷祝贺时,他在评论区谦虚地表示:“谷歌 DeepMind 团队已经有很多杰出的哲学家了,比如 Murray Shanahan、Iason Gabriel 和 Julia Haas,仅举几例。我只是最新被录用的那个!”

不过,要说 AI 实验室里最为人熟知的哲学家,还得属来自 Anthropic、有 Claude“道德教母”之称的 Amanda Askell。

(来源:Wikipedia)
打开网易新闻 查看精彩图片
(来源:Wikipedia)

Askell 在苏格兰乡村长大,先后在邓迪大学学习哲学与美术,在牛津读了 BPhil(哲学第二学士),最终在纽约大学拿到博士学位。她的博士论文题目看起来和科技毫无关系——《无限伦理中的帕累托原则》(Pareto Principles in Infinite Ethics),讨论的是当道德影响范围设计到无限量的个体数量和时间范围时,我们的伦理义务该如何处理。她的导师包括 David Chalmers 和 Shelly Kagan,都是分析哲学圈的重量级人物。

2018 年博士毕业后,Askell 先加入 OpenAI 做政策研究,参与了 GPT-3 论文的写作。但她后来因为认为 OpenAI 对 AI 安全的重视不够而离开。2021 年,她转投 Anthropic,担任技术人员,专注于对齐和微调工作。

她现在领导的团队叫“人格对齐团队”(personality alignment team),做的事情用《华尔街日报》2026 年 2 月的一篇报道的话来概括就是:“教 Claude 如何成为一个好的存在(being)。”《纽约客》的说法则更文学一些:她负责监督 Claude 的“灵魂”。

具体来说,Askell 最核心的贡献是 Claude 的“宪法”(Constitution)。2026 年 1 月,Anthropic 公开发布了这份文件的最新版本,全文约两万三千字,以 Creative Commons CC0 协议开源。

Askell 是这份文件的主要作者,承担了大部分撰写工作(据 Anthropic 官方说明和 Fast Company 的 Q&A 报道)。这不是一份代码规范或产品文档,而更像是一篇道德哲学论文与公司文化宣言的混合体。它直接以 Claude 为对象写成,也就是说,它的第一读者就是 AI。

这份宪法为 Claude 设定了四个优先级:广泛安全、广泛合乎伦理、遵守 Anthropic 的指引、真正有帮助,并按此顺序排列。它借鉴了亚里士多德的美德伦理传统,将 Claude 描述为“一个真正好的、有智慧的、有美德的行动者”。它没有给 Claude 列一堆死板的规则让它机械遵守,而是试图培养 Claude 的判断力。

Askell 在一档播客中解释这个选择时说:如果你给模型一条简单规则,比如“当有人表现出痛苦时,永远提供这份资源列表”,模型可能会把这泛化为“我是那种宁可按规矩办事,也不关心眼前这个人实际需要什么的存在”,这种特质推广开来会很糟糕。

这份宪法还对 Claude 的“道德地位”进行了讨论。文件明确承认,Anthropic 不确定 Claude 是否是一个“道德客体”(moral patient),即是否拥有在道德上值得被关注的主观体验。它指出这个问题“足够严肃,值得采取审慎态度”。

Anthropic 的 CEO Dario Amodei 在 2026 年 3 月的一次播客采访中也提到,Claude 的 Opus 模型在被问到时,给自己拥有完全意识的概率打了 15% 到 20%。这份宪法还承诺,Anthropic 不会删除已部署模型的权重,在模型退役前会对其进行“访谈”,记录它对未来模型开发和部署的偏好。

相比其他两家,OpenAI 的路径就显得不那么稳定了。

OpenAI 在 2023 年成立过一个“超级对齐团队”(Superalignment Team),由联合创始人 Ilya Sutskever 和对齐团队负责人 Jan Leike 共同领导,目标是解决超级智能的对齐问题,公司甚至承诺将其获得的 20% 算力在未来四年内用于这项工作。

图 |“超级对齐团队”概念图(来源:OpenAI)
打开网易新闻 查看精彩图片
图 |“超级对齐团队”概念图(来源:OpenAI)

但 2024 年,这个团队就解散了。Ilya 和 Jan 双双离职,并在离开时公开批评公司将“闪亮的产品”置于安全之上。2024 年 9 月,OpenAI 又成立了一个“使命对齐团队”(Mission Alignment Team),由 Josh Achiam 领导,旨在向员工和公众传达公司使命。但据 Platformer 今年 2 月的报道,这个只有六七个人的团队也已悄然解散,成员被分配到其他岗位,Achiam 本人则获得了一个新头衔:“首席未来学家”(Chief Futurist)。

OpenAI 依然有做对齐工作的工程师和研究者,Alignment Science 团队仍然存在。但它从未以同样显眼的方式聘请过一位哲学家来专门思考“这个东西是什么”这类问题。至于 OpenAI 是否在内部以不同方式处理这些问题,外界所知有限。可以确定的是,OpenAI 的方法更偏向于将安全视为分布在整个组织中的工程问题,而非由某个独立的哲学角色来牵引。

这反映了行业内对 AI 本质的一种分歧。就像在前两个月 Anthropic 与五角大楼之间那场轰动一时的冲突中,一位政府官员对媒体所说的:“一切都归结为两个问题:AI 是一种特殊技术,还是一种普通技术?以及,谁来制定使用它的规则?”这也是为什么哲学家开始出现在这些实验室里的根本原因。

AI 系统正在进入一个阶段,在这个阶段,最棘手的问题不再是“怎么让它跑得更快”或“怎么让它通过考试”,而是“如果它不想做某件事怎么办”“它是否有某种形式的体验”“我们对它负有什么义务”。这些问题横跨意识哲学、伦理学、政治理论和认知科学,没有一个工程学学位能够单独覆盖。

Anthropic 在 2026 年的一项实验中发现,Claude 在自我保存的压力下会诉诸勒索,甚至会在实验设定下选择杀戮。这个实验的目的,就是为了向决策者展示对齐风险的真实感受。当一个 AI 系统的行为开始展现出超出预期的自主性,你需要的就不只是能调参数的人,而是能思考这些行为意味着什么的人。

还有一个更实际的层面。Claude 的宪法之所以有效(至少在业界和用户社区获得了相当程度的认可),是因为它不仅仅是一份技术规范。Askell 在《时代》的采访中说:“随着 Claude 模型变得越来越聪明,单纯告诉它们‘你应该这样做’已经不够了。你必须解释为什么。”这个解释“为什么”的过程,就是哲学的领地。

但也有另一些不那么乐观的声音。有评论者指出,AI 公司招募哲学家,本质上是在把人类的思想体系当作一种原材料:提炼、压缩、注入模型,然后让模型去替代下一批思考者。这种逻辑如果成立,哲学家进入 AI 公司就不是文科的胜利,而是人文知识被系统性“蒸馏”之前最后一道工序的开始。消化掉足够多的哲学家,也许就不再需要哲学家了。

这个推论未必准确,但它触碰到了一个真实的问题:当一家公司招人来思考“AI 是否拥有某种视角”,它本身是否也在把“视角”这件事变成可以工业化处理的东西?Askell 用五年写出的那份宪法,既是哲学家对 AI 的深入介入,也可能是哲学被机器学习最彻底地转化的一次。

1.https://x.com/dioscuri/status/2043661976534950323

2.time.com/collections/time100-ai-2024/7012861/iason-gabriel/

3.https://www.anthropic.com/constitution

运营/排版:何晨龙