Sam Altman May Control Our Future—Can He Be Trusted?

最新的采访与严格保密的文件揭示了外界对这位OpenAI掌门人持续存在的质疑。

打开网易新闻 查看精彩图片

本文即将刊登于2026 年 4 月 13 日的《纽约客》杂志,印刷版标题为“Moment of Truth.”作者:《纽约客》特约撰稿人Ronan Farrow曾获得普利策奖和乔治·波尔克奖。他的2025年播客节目《不太好的杀人犯》被改编成HBO纪录片系列。Andrew Marantz是《纽约客》的专职撰稿人,也是《反社会:网络极端分子、技术乌托邦主义者和美国对话的劫持》一书的作者。

打开网易新闻 查看精彩图片

奥特曼承诺会成为人工智能的可靠守护者。但他的部分同事认为,他并不值得信任,用其中一人的话来说,不配“手握决策按钮”。视觉设计:戴维·绍德。

2023年秋,OpenAI首席科学家伊利亚·苏茨克弗向该组织董事会的另外三名成员发送了机密备忘录。此前数周,他们一直在秘密商议OpenAI首席执行官山姆·奥特曼及其副手格雷格·布罗克曼是否适合管理这家公司。苏茨克弗曾视这二人为好友。2019年,他在OpenAI办公室主持了布罗克曼的婚礼,仪式上的戒童是一只机械手。但当他愈发确信公司即将实现长期目标——创造出认知能力可与人类匹敌甚至超越人类的人工智能时,他对奥特曼的疑虑也日益加深。苏茨克弗当时对另一位董事表示:“我认为山姆不该是那个手握决策按钮的人。”

应其他董事的要求,苏茨克弗与志同道合的同事合作,整理了约七十页的Slack聊天记录、人力资源文件及相关说明文字。这些材料中包含用手机拍摄的图片,显然是为了避免在公司设备上留下痕迹。他将最终的备忘录以阅后即焚消息的形式发送给其他董事,确保不会有其他人看到。“他当时极度恐惧,”一名收到备忘录的董事回忆道。我们审阅过这些此前从未完整公开的备忘录,其中指控奥特曼向高管和董事歪曲事实,并在内部安全规程上欺骗他们。其中一份关于奥特曼的备忘录开头列有一个标题为“山姆一贯表现出……”的清单,第一条便是“撒谎”。

许多科技公司都会发布改善世界的模糊宣言,随后便一心追求收益最大化。但OpenAI的创立初衷便是与众不同。包括奥特曼、苏茨克弗、布罗克曼和埃隆·马斯克在内的创始人宣称,人工智能可能是人类历史上最强大、也最具潜在危险的发明,考虑到其存在性风险,或许需要一种特殊的公司架构。公司以非营利形式成立,董事会有义务将人类安全置于公司成功乃至生存之上。首席执行官必须具备非凡的诚信品质。苏茨克弗表示:“任何致力于研发这种改变文明的技术的人,都肩负着重担,承担着前所未有的责任。”但“最终坐上这类位置的人往往是一类特定的人——热衷权力的人、政客、享受权力的人”。在一份备忘录中,他似乎担忧将这项技术托付给一个“只会说别人想听的话”的人。如果OpenAI首席执行官被证实不可靠,由六名成员组成的董事会有权将其解雇。包括人工智能政策专家海伦·托纳、企业家塔莎·麦考利在内的部分董事收到备忘录后,更加确信自己此前的判断:奥特曼肩负着人类未来的重任,却不值得信任。

苏茨克弗邀请正在拉斯维加斯观看一级方程式赛车比赛的奥特曼参加一场董事会视频会议,随后宣读了一份简短声明,告知他已不再是OpenAI员工。董事会依据法律建议发布公开声明,仅表示解除奥特曼职务的原因是他“在沟通中未能始终保持坦诚”。OpenAI的众多投资者和高管大为震惊。向OpenAI投资约130亿美元的微软,直到事发前一刻才得知解雇奥特曼的计划。微软首席执行官萨提亚·纳德拉后来说:“我非常震惊,完全摸不着头脑。”他与OpenAI投资者、微软董事领英联合创始人里德·霍夫曼取得联系,霍夫曼开始四处致电,想弄清奥特曼是否犯下了明确过错。“我完全不知道发生了什么,”霍夫曼告诉我们,“我们怀疑是挪用公款、性骚扰之类的问题,但什么都没查到。”

其他商业伙伴同样猝不及防。奥特曼打电话告知投资者罗恩·康威自己被解雇时,康威正与众议院前议长南希·佩洛西共进午餐,便把手机举到佩洛西面前。佩洛西对康威说:“你最好赶紧脱身。”OpenAI当时即将完成由风险投资公司Thrive的一笔大额投资,该公司由乔希·库什纳创立,他是贾里德·库什纳的弟弟,与奥特曼相识多年。这笔交易将使OpenAI估值达到860亿美元,让众多员工得以套现数百万美元股权。库什纳刚与音乐制作人里克·鲁宾开完会,就发现了奥特曼的未接来电。他后来说:“我们立刻进入了战斗状态。”

奥特曼被解雇当天,飞回了他位于旧金山、价值2700万美元的豪宅。这座宅邸可俯瞰海湾全景,曾配有悬挑式无边泳池。他在此搭建了所谓的“流亡政府”。康威、爱彼迎联合创始人布莱恩·切斯基以及以强硬著称的危机公关经理克里斯·莱汉加入其中,有时每天通过视频和电话商议数小时。奥特曼管理团队的部分成员在宅邸走廊里安营扎寨,律师们则在他卧室旁的家庭办公室办公。失眠时,奥特曼会穿着睡衣在他们身边踱步。我们近期与奥特曼交谈时,他将被解雇后的这段日子形容为“一场诡异的神游状态”。

在董事会保持沉默的情况下,奥特曼的顾问团队为他的复职造势。莱汉坚称,此次解雇是一群极端的“有效利他主义者”策划的政变——这些人信奉以最大化人类福祉为核心的理念,将人工智能视为存在性威胁。(霍夫曼对纳德拉表示,此次解雇可能源于“有效利他主义的疯狂行径”。)莱汉据称效仿迈克·泰森的座右铭——“人人都有计划,直到脸上挨一拳”,敦促奥特曼发起猛烈的社交媒体攻势。切斯基与科技记者卡拉·斯威舍保持联系,传递对董事会的批评声音。

奥特曼每天傍晚六点会中断“作战室”的商议,喝一轮内格罗尼酒。他回忆说:“你得冷静下来,该发生的总会发生。”但他补充道,通话记录显示他每天通话时长超过12小时。据一名知情人士透露,奥特曼曾向米拉·穆拉蒂传达信息,称自己的盟友会“全力以赴”,并“搜集黑料”损害她及其他反对自己的人的声誉。穆拉蒂曾为苏茨克弗的备忘录提供材料,当时担任OpenAI临时首席执行官。(奥特曼表示不记得有过这番对话。)

解雇事件发生数小时内,Thrive便暂停了原定投资,并表示只有奥特曼复职,交易才会完成,员工才能获得股权兑现。这一时期的短信记录显示,奥特曼与纳德拉密切协调。(两人商议声明措辞时,奥特曼提议:“萨提亚,我的首要任务仍是挽救OpenAI。”纳德拉则修改为:“确保OpenAI持续蓬勃发展。”)微软很快宣布,将为奥特曼及所有离开OpenAI的员工设立一个竞争项目。公司内部流传着一封要求奥特曼复职的公开信,一些犹豫签字的员工收到了同事的恳求电话和信息。最终,大多数OpenAI员工威胁要随奥特曼一同离职。

董事会被逼入绝境。托纳说:“一个选择是撤销解雇决定,就像按了Ctrl+Z。另一个选择就是公司分崩离析。”就连穆拉蒂最终也签署了公开信。奥特曼的盟友开始争取苏茨克弗。布罗克曼的妻子安娜在办公室找到他,恳求他重新考虑。“你是个好人,你能挽回这一切。”她说。苏茨克弗后来在法庭证词中解释:“我认为如果山姆不复职,OpenAI将会覆灭。”一天晚上,奥特曼服用安眠药安必恩后入睡,却被身为澳大利亚程序员的丈夫奥利弗·马尔赫林叫醒,对方告知他苏茨克弗态度松动,众人希望他与董事会沟通。奥特曼告诉我们:“我在安必恩的药效中昏昏沉沉醒来,完全晕头转向,根本没法和董事会谈话。”

在一系列愈发紧张的通话中,奥特曼要求推动解雇他的董事辞职。他回忆自己最初对复职的想法是:“我要在一片质疑声中收拾他们留下的烂摊子?绝对不可能。”最终,苏茨克弗、托纳和麦考利失去董事席位,Quora创始人亚当·安杰洛是唯一留任的原董事。离职董事作为退出条件,要求对针对奥特曼的指控展开调查,包括他挑拨高管关系、隐瞒财务关联等,同时要求组建新董事会,独立监督外部调查。但新任两名董事——哈佛大学前校长劳伦斯·萨默斯和Facebook前首席技术官布雷特·泰勒——均是与奥特曼密切商议后选定的。(奥特曼给纳德拉发消息:“由布雷特、劳伦斯·萨默斯和亚当组成董事会,我担任首席执行官,布雷特负责调查,你觉得可行吗?”麦考利后来在证词中表示,她此前就担心泰勒对奥特曼过于顺从。)

被解雇不到五天,奥特曼便官复原职。如今员工将这一事件称为“小插曲”,取自漫威电影中角色凭空消失又完好归来、世界却因他们的缺席发生巨变的情节。但关于奥特曼是否值得信任的争论已超出OpenAI董事会。推动解雇他的同事指控其存在严重欺骗行为,这对任何高管而言都不可接受,对掌控如此颠覆性技术的领导者来说更是危险。穆拉蒂告诉我们:“我们需要配得上自身权力的机构。董事会征求意见,我分享了所见所闻,所有内容均真实无误,我对此负责。”而奥特曼的盟友则长期驳斥这些指控。解雇事件后,康威给切斯基和莱汉发短信,要求发起公关攻势。“这关乎山姆的声誉,”他写道。他对《华盛顿邮报》表示,奥特曼“遭到了叛逆董事会的不公对待”。

此后,OpenAI成为全球最具价值的公司之一,据称正筹备首次公开募股,潜在估值达万亿美元。奥特曼正推动建设规模惊人的人工智能基础设施,其中部分布局于外国。OpenAI斩获大量政府合同,为移民执法、国内监控及战区自主武器的人工智能应用制定标准。

奥特曼在2024年的一篇博客文章中描绘愿景,以此推动OpenAI发展:“惊人的成就——修复气候、建立太空殖民地、破解全部物理学奥秘——终将变得寻常。”他的这番言论支撑着这家初创公司创下史上最快的烧钱速度,其合作方大举借债。美国经济日益依赖少数高杠杆人工智能公司,许多专家(有时包括奥特曼本人)警告该行业存在泡沫。他去年对记者表示:“有人会损失巨额资金。”一旦泡沫破裂,可能引发经济灾难。若他最乐观的预测成真,他或将成为全球最富有、最有权势的人之一。

奥特曼被解雇后的一次紧张通话中,董事会要求他承认存在习惯性欺骗行为。据通话在场人士透露,他反复说:“这太离谱了,我改不了自己的性格。”奥特曼表示不记得这段对话,对我们说:“我可能是想说‘我确实想成为凝聚人心的力量’。”他称这一特质让他得以领导这家极为成功的公司,并将批评归因于自己职业生涯早期“过于回避冲突”。但一名董事对此有不同解读:“他的意思是‘我就是爱撒谎,而且不会改’。”解雇奥特曼的同事是出于危言耸听和个人恩怨,还是他们的判断正确——他确实不值得信任?

今年冬天的一个早晨,我们在旧金山OpenAI总部与奥特曼会面,这是我们为报道与他进行的十多次交谈之一。公司近期迁入两栋11层的玻璃大楼,其中一栋曾由科技巨头优步使用。优步联合创始人兼首席执行官特拉维斯·卡兰尼克曾被视为势不可挡的天才,却因投资者对其道德操守的担忧,于2017年被迫辞职。(卡兰尼克如今运营一家机器人初创公司,他近日称闲暇时会用OpenAI的ChatGPT“探索量子物理的前沿领域”。)

一名员工带我们参观办公室。在一个摆满公共餐桌的宽敞空间里,挂着一幅计算机科学家艾伦·图灵的动态数字画作,我们走过时,画中人物的眼睛会跟随我们移动。这件作品暗指1950年提出的图灵测试,即判断机器能否逼真模仿人类的思想实验。(2025年的一项研究显示,ChatGPT通过图灵测试的概率高于真人。)通常人们可与这幅画作互动,但员工向导称音效已关闭,因为它总偷听员工对话并插话。办公室其他地方的牌匾、宣传册和周边产品上印着“感受通用人工智能”的字样。这句话最初源于苏茨克弗,他用此警示同事警惕通用人工智能的风险——即机器达到人类认知水平的临界点。而在“小插曲”之后,这句话变成了歌颂富足未来的欢快口号。

我们在八楼一间普通的会议室见到奥特曼。他说:“以前别人跟我说决策疲劳,我不懂。现在我每天只穿灰色毛衣和牛仔裤,就连从衣柜里挑哪件灰色毛衣都觉得烦,真不想费这个心思。”奥特曼外表年轻,身材瘦削,蓝色双眼间距较宽,头发凌乱,如今已40岁,他与马尔赫林通过代孕拥有一个一岁的儿子。他与我们对视着说:“当然,美国总统的工作压力会大得多,但在我能胜任的工作里,这份是压力最大的。”“我跟朋友解释说,‘在ChatGPT发布前,这份工作是全世界最有趣的。我们取得了重大科学突破,我觉得是几十年来最重要的科学发现之一。’”他垂下目光,“但ChatGPT发布后,决策变得异常艰难。”

奥特曼在密苏里州克莱顿长大,那是圣路易斯的富裕郊区,家中四个孩子里他排行老大。母亲康妮·吉布斯廷是皮肤科医生,父亲杰里·奥特曼是房地产经纪人和住房权益活动家。奥特曼在改革派犹太教堂和一所私立预科学校就读,他称这所学校“不是一个能坦然公开自己同性恋身份的地方”。不过总体而言,家族所在的富裕郊区圈子相对开明。他说自己十六七岁时,在圣路易斯一个以同性恋为主的社区深夜外出,遭到残酷的人身攻击,还被辱骂恐同言论。奥特曼未报案,也不愿公开更多细节,称详细讲述会“让我显得博取同情”。他否认这一事件及自身性取向对其身份有重要影响,但表示:“可能这在心底留下了心理阴影——我以为自己走出来了,其实并没有,所以不想引发更多冲突。”

奥特曼的弟弟2016年接受《纽约客》采访时说,奥特曼童年的态度是“我必须赢,一切都由我掌控”。他进入斯坦福大学,常参加校外扑克局。他后来说:“我从扑克中学到的人生和商业道理,比大学课堂还多。”

斯坦福学生个个雄心勃勃,其中最有闯劲的不少人选择辍学。大二暑假,奥特曼前往马萨诸塞州,加入创业孵化器Y Combinator的首批创业者项目,该孵化器由知名软件工程师保罗·格雷厄姆联合创立。每位参与者都带着创业想法加入(奥特曼同期学员包括红迪网和Twitch的创始人)。奥特曼的项目最终命名为Loopt,是一个早期社交网络,通过翻盖手机的定位功能告知好友位置。这家公司体现了他的进取心,也暴露了他将模糊情况往对自己有利方向解读的倾向。联邦法规要求电信运营商为紧急服务追踪手机位置,奥特曼与运营商达成协议,为公司使用该功能。

Loopt的大多数员工喜欢奥特曼,但部分人对他夸大其词的习惯印象深刻,即便小事也不例外。有人回忆奥特曼到处吹嘘自己是乒乓球冠军,“比如密苏里州高中乒乓球冠军”,结果却是办公室里打得最差的人之一。(奥特曼称自己可能是在开玩笑。)Loopt的资深员工马克·雅各布斯坦因受投资者委托担任奥特曼的“监护人”,他后来在为奥特曼传记《乐观主义者》接受基奇·哈奇采访时说:“他会模糊‘我或许能做成这件事’和‘我已经做成了这件事’的界限,极端情况下会酿成Theranos那样的骗局。”Theranos是伊丽莎白·霍姆斯创立的欺诈性初创公司。

据哈奇报道,多名资深员工因担忧奥特曼的领导能力和不透明性,两次请求Loopt董事会解雇其首席执行官职务。但奥特曼也赢得了部分人的绝对忠诚。一名前员工称,一名董事回应:“这是山姆的公司,回去好好干活。”(一名董事否认严肃尝试过罢免奥特曼。)Loopt用户增长艰难,2012年被一家金融科技公司收购。据一名知情人士透露,这笔收购很大程度上是为了给奥特曼挽回颜面。尽管如此,2014年格雷厄姆从Y Combinator退休时,仍任命奥特曼为继任总裁。格雷厄姆告诉《纽约客》:“我在厨房跟山姆说的,他笑了,像是‘成了’的样子。我从没见过山姆如此不加掩饰的笑容,就像把纸团扔进房间另一头的垃圾桶时的那种笑容。”

28岁的奥特曼担任新职后,成为硅谷的造王者。他的工作是挑选最有野心、最有潜力的创业者,为他们对接顶尖程序员和投资者,助力初创公司成为定义行业的垄断企业(Y Combinator则抽取6%至7%的股份)。奥特曼推动孵化器大幅扩张,旗下初创公司从几十家增至数百家。但多名硅谷投资者认为他忠诚度不一。一名投资者告诉我们,奥特曼“会选择性地对最优质的公司进行个人投资,排挤外部投资者”。(奥特曼否认排挤他人。)他曾为风投基金红杉资本担任“侦察员”,该项目要求投资早期初创公司并抽取少量利润分成。据一名知情人士透露,奥特曼对金融服务初创公司Stripe进行天使投资时,坚持要求更高份额,惹怒红杉合伙人,该人士称这是“山姆优先”的原则。奥特曼自称投资了约400家公司。(奥特曼否认对Stripe交易的这一描述。2010年左右,他首次向Stripe投资1.5万美元,获得2%股份,如今该公司估值超1500亿美元。)

到2018年,多名Y Combinator合伙人对奥特曼的行为极为不满,找到格雷厄姆投诉。格雷厄姆与妻子、Y Combinator联合创始人杰西卡·利文斯顿与奥特曼进行了坦诚谈话。此后,格雷厄姆开始对外表示,尽管奥特曼同意离职,却在实际操作中拖延。奥特曼对部分合伙人称,他将辞去总裁职务,转任董事长。2019年5月,一篇宣布Y Combinator新任总裁的博客文章附带说明:“山姆将转任YC董事长。”数月后,文章修改为“山姆·奥特曼辞去YC所有正式职务”,随后这句话也被删除。尽管如此,截至2021年,美国证券交易委员会的一份文件仍将奥特曼列为Y Combinator董事长。(奥特曼称他很久后才知晓此事。)

多年来,奥特曼无论公开场合还是近期证词中都坚称自己从未被Y Combinator解雇,并对我们表示他并未拖延离职。格雷厄姆在推特上称:“我们不想让他离开,只是希望他在YC和OpenAI之间做选择。”他在声明中对我们说:“我们没有解雇任何人的法律权力,只能施加道德压力。”但私下里,他明确表示奥特曼是因YC合伙人的不信任被免职。本文对奥特曼在Y Combinator经历的描述,基于对多名YC创始人和合伙人的采访及同期材料,均显示此次离职并非完全自愿。格雷厄姆曾对YC同事表示,在被免职前,“山姆一直对我们撒谎”。

2015年5月,奥特曼给当时全球富豪榜第一百位的埃隆·马斯克发了一封电子邮件。和许多硅谷知名企业家一样,马斯克忧心一系列他认为关乎人类存亡的紧急威胁,尽管在多数人看来这些只是牵强的假设。他在推特上写道:“我们必须极度谨慎对待人工智能,其潜在危险超过核武器。”

奥特曼总体上是技术乐观主义者,但此后他对人工智能的言论转向末日论调。公开场合及与马斯克等人的私人通信中,他警告这项技术不应由逐利的大型科技公司主导。他给马斯克写道:“我一直在思考能否阻止人类研发人工智能。如果终究无法避免,那最好由谷歌之外的玩家率先实现。”他沿用核武器的类比,提议启动“人工智能曼哈顿计划”,并列出该机构的核心原则——“安全应作为首要要求”“显然我们会遵守并积极支持所有监管”,最终与马斯克敲定名称:OpenAI。

与催生原子弹的政府项目曼哈顿计划不同,OpenAI最初至少由私人出资。奥特曼预测,超级人工智能——理论上超越通用人工智能、机器全面超越人类心智的临界点——最终将创造足够的经济价值,“捕获宇宙未来所有价值的光锥”。但他也警告存在性危险:某一时刻,其国家安全影响可能极端严峻,美国政府或将接管OpenAI,甚至将其国有化,迁至沙漠中的安全掩体。2015年底,马斯克被说服。他写道:“我们应宣布初始10亿美元资金承诺,其他人不出的部分我来补。”

奥特曼将OpenAI置于Y Combinator的非营利部门,定位为内部慈善项目。他向OpenAI新员工发放YC股权,并通过YC账户划转捐款。某一时期,实验室由YC旗下一只基金支持,奥特曼持有该基金个人股份。(奥特曼后称该股份微不足道,对我们表示给员工的YC股权是自己持有的。)

曼哈顿计划的类比也适用于员工招聘。与核裂变研究一样,机器学习是一个影响划时代、由一群古怪天才主导的小众科学领域。马斯克、奥特曼与从Stripe加入的布罗克曼坚信,全球仅有少数计算机科学家能实现所需突破。谷歌资金雄厚,且领先数年。马斯克后来在邮件中写道:“我们在人员和资源上都处于绝对劣势,但只要能逐步吸引最顶尖人才,且方向正确,OpenAI终将取胜。”

核心招聘目标之一是苏茨克弗,这位专注内向的研究者常被誉为其同辈中最具天赋的人工智能科学家。1986年,苏茨克弗出生于苏联,发际线后退,双眼深邃,说话时常停顿眨眼斟酌措辞。另一位目标是达里奥·阿莫迪,一名生物物理学家,精力充沛,习惯紧张地捻弄黑发,回复简短邮件常写多段长文。二人在其他机构均有高薪职位,但奥特曼对他们倍加关注。他后来开玩笑说:“我‘跟踪’了伊利亚。”

马斯克名气更大,但奥特曼手段更圆滑。他给阿莫迪发邮件,约在一家印度餐厅一对一晚餐。(奥特曼:“糟了,我的优步撞车了!大概晚10分钟。”阿莫迪:“哇,希望你没事。”)和许多人工智能研究者一样,阿莫迪认为只有证明人工智能与人类价值观“对齐”——即按人类意愿行事,不犯致命错误,比如遵循清理环境的指令却消灭最大污染源人类——才能研发该技术。奥特曼对此表示认同,呼应其安全担忧。

阿莫迪后来加入公司,多年来详细记录奥特曼和布罗克曼的行为,标题为“我与OpenAI的经历”(副标题:私密,请勿分享)。硅谷同行间流传着两百多页与阿莫迪相关的文件,包括这些记录、内部邮件和备忘录,此前从未公开。阿莫迪在记录中写道,奥特曼的目标是打造“专注安全的人工智能实验室(或许不会立刻,但会尽快)”。

2015年12月,OpenAI公开宣布前几小时,奥特曼给马斯克发邮件,称有传言谷歌“明天会给OpenAI所有人开出巨额挽留报价,试图扼杀我们”。马斯克回复:“伊利亚确定加入了吗?”奥特曼保证苏茨克弗立场坚定。谷歌向苏茨克弗开出年薪600万美元,OpenAI根本无法匹敌,但奥特曼夸口:“可惜他们没有‘做正确的事’这张牌。”

马斯克为OpenAI在旧金山米申区一家旧行李箱工厂提供了办公场地。苏茨克弗对我们说,公司对员工的宣传是“你们将拯救世界”。

OpenAI创始人相信,若一切顺利,人工智能将开启后稀缺乌托邦时代,自动化繁重工作,治愈癌症,让人类享受休闲富足的生活。但一旦技术失控或落入恶人之手,可能造成彻底毁灭:人工智能模型或摆脱监管,在秘密服务器自我复制,无法被关闭;极端情况下,或控制电网、股市或核武库。至少可以说,并非所有人都相信这一点,但奥特曼反复确认自己深信不疑。他2015年在博客中写道,超人类机器智能“不必是科幻作品中邪恶的版本才能毁灭人类。更可能的场景是,它对人类漠不关心,却为实现其他目标……将我们彻底清除”。OpenAI创始人承诺不重速度轻安全,公司章程将造福人类定为法定义务。如果人工智能成为史上最强大的技术,那么单独掌控它的人将获得独一无二的权力——创始人称之为“通用人工智能独裁”。

奥特曼对早期新员工承诺OpenAI将保持纯非营利性质,程序员为此大幅降薪入职。公司接受慈善拨款,包括当时名为“开放慈善项目”的机构3000万美元资助,该机构是有效利他主义运动的核心平台,资助项目包括向全球贫困人口发放蚊帐。

布罗克曼和苏茨克弗负责OpenAI日常运营,马斯克和奥特曼仍忙于其他工作,每周到访约一次。但到2017年9月,马斯克已失去耐心。在商议是否将OpenAI改组为营利性公司时,他要求获得多数控制权。奥特曼的回应视情况而定,核心诉求始终是:若OpenAI重组设首席执行官,该职位必须由他担任。苏茨克弗对此感到不安,代表自己和布罗克曼给马斯克和奥特曼发了一封长篇恳切邮件,主题为“坦诚的想法”。他写道:“OpenAI的目标是创造美好未来,避免通用人工智能独裁。”他对马斯克说:“因此,设立让你可能成为独裁者的架构是错误的。”他向奥特曼表达类似担忧:“我们不明白首席执行官头衔对你为何如此重要。你给出的理由反复变化,很难知晓真正动机。”

马斯克回复:“各位,我受够了。要么你们独立创业,要么OpenAI继续作为非营利机构运营”,否则“我就是个傻瓜, 免费出资帮你们创立公司”。五个月后,他愤然辞职。(2023年,他创立营利性竞争对手xAI。次年,他起诉奥特曼和OpenAI欺诈及违反慈善信托,指控自己被“奥特曼的长期骗局”“精心操纵”,称奥特曼利用他对人工智能危险的担忧骗取资金。诉讼仍在进行中,OpenAI坚决抗辩。)

马斯克离职后,阿莫迪等研究员对布罗克曼(被部分人视为行事强硬)和苏茨克弗(普遍认为有原则但缺乏条理)的领导感到不满。在升任首席执行官的过程中,奥特曼似乎对公司不同派系做出不同承诺。他向部分研究员保证将削弱布罗克曼的管理权限,却暗中与布罗克曼、苏茨克弗达成秘密协议:奥特曼担任首席执行官,若另外二人认为必要,他同意辞职。(他否认这一说法,称自己是受邀才担任首席执行官。三人均确认协议存在,布罗克曼称是非正式约定:“他单方面说若我们二人同时要求,他就辞职。我们反对,但他称这对自己很重要,纯粹是出于善意。”)后来,董事会得知首席执行官私下设立影子董事会,大为震惊。

内部记录显示,创始人早在2017年就对非营利架构私下存疑。当年马斯克试图夺权后,布罗克曼在日记中写道:“不能说我们坚守非营利……若三个月后转型为共益企业,那就是谎言。”阿莫迪在早期记录中回忆,曾追问布罗克曼的优先事项,布罗克曼称想要“金钱和权力”。布罗克曼对此予以否认,其同期日记显示内心矛盾:一条写道“只要没人暴富,我自己不发财也开心”,另一条则自问“我真正想要什么?”,答案包括“实现10亿美元财富”。

2017年,苏茨克弗在办公室读到谷歌研究员刚发表的一篇论文,提出“一种全新的简单网络架构:Transformer”。他从椅子上跳起来,跑过走廊对同事说:“停下手里所有事,就是这个了。”苏茨克弗意识到,Transformer这一创新或让OpenAI训练出更先进的模型,由此诞生首个生成式预训练Transformer——ChatGPT的雏形。

我们了解到,随着技术日益强大,约十二名OpenAI顶尖工程师召开一系列秘密会议,商议是否信任包括布罗克曼和奥特曼在内的OpenAI创始人。其中一次会议上,一名员工想起英国喜剧组合米切尔和韦伯的小品:东线战场的一名纳粹士兵幡然醒悟,问道“我们是坏人吗?”

到2018年,阿莫迪开始更公开地质疑创始人的动机。他后来在记录中写道:“一切都是轮番上演的融资骗局。我认为OpenAI需要明确自身使命、边界及如何让世界变得更好。”OpenAI已有使命宣言:“确保通用人工智能造福全人类。”但阿莫迪不清楚高管对此的真实理解。2018年初,阿莫迪称自己开始起草公司章程,与奥特曼和布罗克曼商议数周,推动加入最激进条款:若一个“价值观对齐、重视安全”的项目先于OpenAI接近研发出通用人工智能,公司将“停止竞争,转而协助该项目”。这一“合并协助”条款意味着,若谷歌研究员率先研发出安全通用人工智能,OpenAI可停止运营并捐赠资源。按常规企业逻辑,这一承诺近乎疯狂,但OpenAI本就不该是常规公司。

2019年春,OpenAI与微软谈判十亿美元投资,这一前提受到考验。牵头公司安全团队的阿莫迪虽协助向比尔·盖茨推介交易,但团队许多人对此感到焦虑,担心微软加入条款架空OpenAI的道德承诺。阿莫迪向奥特曼提交一份安全要求清单,将保留合并协助条款列为首要事项。奥特曼同意这一要求,但6月交易即将完成时,阿莫迪发现新增条款赋予微软阻止OpenAI任何合并的权力。他回忆:“章程80%的内容被背叛了。”他当面质问奥特曼,奥特曼否认该条款存在,阿莫迪当众朗读条款内容,最终迫使另一名同事向奥特曼证实其存在。(奥特曼称不记得此事。)阿莫迪的记录描述了双方矛盾不断升级,包括数月后奥特曼传唤他和在公司安全与政策部门工作的妹妹丹妮拉,称从一名高管处得到“可靠消息”,二人密谋政变。记录显示,丹妮拉情绪激动,找来该高管对质,对方否认有过此言。据一名知情人士回忆,奥特曼随后否认自己说过这话。丹妮拉反驳:“你刚说过。”(奥特曼称记忆不完全一致,仅指责阿莫迪兄妹有“政治操弄行为”。)2020年,阿莫迪、丹妮拉及其他同事离职创立Anthropic,如今是OpenAI的主要竞争对手之一。

奥特曼仍大肆宣扬OpenAI对安全的承诺,尤其在潜在新员工面前。2022年底,四名计算机科学家发表论文,部分源于对“欺骗性对齐”的担忧——足够先进的模型或在测试中伪装良好,部署后却追求自身目标(这一人工智能场景看似科幻,却已在部分实验中出现)。论文发表数周后,作者之一、加州大学伯克利分校博士生收到奥特曼邮件,称自己愈发担忧未对齐人工智能的威胁,还表示考虑为此投入10亿美元,或许设立奖项激励全球研究者研究这一众多人工智能专家眼中全球最重要的未解难题。这名博士生虽“听闻过山姆圆滑的模糊传言”,但奥特曼的承诺打动了他,便休学加入OpenAI。

但2023年春的数次会议中,奥特曼态度摇摆,不再提及设立奖项,转而主张组建内部“超级对齐团队”。官方公告称,团队将获得“公司已获取算力的20%”——价值或超10亿美元。公告称该工作至关重要,因为若对齐问题无法解决,通用人工智能或“导致人类丧失权力甚至灭绝”。与苏茨克弗共同牵头该团队的扬·莱克对我们说:“这是很有效的留人手段。”

然而,20%算力的承诺并未兑现。四名团队内部及密切合作人士称,实际资源仅占公司算力的1%至2%。一名团队研究员表示:“大部分超级对齐算力都用在最老旧、芯片最差的集群上。”研究员认为优质硬件被预留用于盈利项目。(OpenAI予以否认。)莱克向时任公司首席技术官的穆拉蒂投诉,对方让他别再纠缠,称该承诺本就不切实际。

一名前员工告诉我们,大约在这一时期,苏茨克弗“彻底被安全问题冲昏头脑”。OpenAI早期,他认为灾难性风险合理但遥远,如今却愈发坚信通用人工智能即将到来,担忧加剧。这名前员工称,一次全员大会上,“伊利亚站起来说,未来几年内,公司所有人基本都要转向安全研究,否则我们就完了”。但次年超级对齐团队便解散,任务未完成。

彼时内部消息显示,高管和董事认为奥特曼的隐瞒和欺骗行为可能影响OpenAI产品安全。2022年12月的一次会议上,奥特曼向董事保证,即将推出的GPT-4模型多项功能已通过安全小组审批。董事兼人工智能政策专家托纳要求查看文件,却发现最具争议的两项功能——允许用户“微调”模型完成特定任务、将模型部署为个人助理——并未获批。董事兼企业家麦考利离开会场时,一名员工拉着她,问她是否知晓印度的“违规事件”。奥特曼在数小时的董事会汇报中,从未提及微软未完成必要安全审查,就在印度发布了ChatGPT早期版本。当时的OpenAI研究员雅各布·希尔顿说:“这件事完全被无视了。”

尽管这些疏漏未引发安全危机,另一名研究员卡罗尔·温赖特称,这是“持续重产品轻安全”的表现。GPT-4发布后,莱克给董事们发邮件:“OpenAI已偏离使命,我们将产品和收益置于一切之上,其次是人工智能能力、研究与规模化,对齐与安全排在最后。”他还写道:“谷歌等公司也在学着加快部署,无视安全问题。”

麦考利在给其他董事的邮件中写道:“我认为董事会确实该加强监管力度了。”董事们试图应对这一日益严重的问题,却力不从心。前董事苏·尹说:“坦率说,一群没什么经验的人根本应对不了。”2023年,公司准备发布GPT-4 Turbo模型。苏茨克弗在备忘录中详述,奥特曼显然告知穆拉蒂该模型无需安全审批,并援引总法律顾问杰森·权的话。但穆拉蒂在Slack上询问杰森·权时,对方回复:“呃……不知道山姆哪来的印象。”(杰森·权仍任职于OpenAI,公司发言人表示此事“没什么大不了”。)

不久后,董事会做出解雇奥特曼的决定——随后全世界见证了奥特曼逆转局面。OpenAI章程版本仍挂在官网,但知情人士称其已被稀释至毫无意义。去年6月,奥特曼在个人博客谈及超级人工智能时写道:“我们已越过事件视界,起飞已然开始。”按章程,此时OpenAI或应停止与其他公司竞争,转而合作。但在这篇名为《温和奇点》的文章中,他语气大变,用乐观取代末日恐慌,写道:“我们都会拥有更好的事物,我们将为彼此创造更精彩的东西。”他承认对齐问题仍未解决,却重新定义其性质——不再是致命威胁,而是类似Instagram算法让人沉迷刷屏的小麻烦。

奥特曼常被满怀敬畏或怀疑地称为其世代最顶尖的推销员。他的偶像史蒂夫·乔布斯据称拥有“现实扭曲力场”——坚信世界会顺应自己愿景的无敌自信。但乔布斯从未告诉顾客,不买自己的MP3播放器就会失去所爱之人。2008年,23岁的奥特曼被导师格雷厄姆评价:“就算把他扔到食人族岛上,五年后回来他也会成为国王。”这一判断并非基于奥特曼有限的过往成绩,而是他近乎失控的求胜意志。有人建议格雷厄姆不要把YC校友列入全球顶级初创创始人榜单,他仍把奥特曼列入,写道:“区区规则拦不住山姆·奥特曼。”

格雷厄姆本意是赞美,但奥特曼最亲密的部分同事对此有不同看法。苏茨克弗愈发担忧人工智能安全后,整理了关于奥特曼和布罗克曼的备忘录,这些文件在硅谷声名远扬,部分圈子里直接称为“伊利亚备忘录”。与此同时,阿莫迪仍在继续记录。这些文件及相关材料记录了他从谨慎理想主义到警惕的转变,言辞比苏茨克弗更激烈,时而怒斥奥特曼“他的话几乎肯定是胡扯”,时而惋惜自己未能纠正OpenAI的方向。

两份文件均无决定性证据,而是罗列了一系列所谓的欺骗和操纵行为,单看每一件或许不值一提:奥特曼据称向两人提供同一职位、就直播人选讲述矛盾说辞、在安全要求上撒谎。但苏茨克弗得出结论,此类行为“不利于打造安全的通用人工智能”。阿莫迪和苏茨克弗并非密友,却得出相似结论:阿莫迪写道,“OpenAI的问题就是山姆本人”。

我们采访了一百多名亲历奥特曼商业运作的人士:现任及前任OpenAI员工、董事、奥特曼各处宅邸的宾客与工作人员、同事与竞争对手、朋友与敌人,以及在硅谷逐利文化中兼具多重身份的人。(OpenAI与《纽约客》母公司康泰纳仕有协议,可在有限期限内将其内容展示在搜索结果中。)

部分人维护奥特曼的商业才能,驳斥其对手(尤其是苏茨克弗和阿莫迪)是觊觎其位置的失败者,或将他们描绘成轻信、心不在焉的科学家,或是被“末日论”裹挟、幻想自己研发的软件会复活杀人的人士。前董事苏·尹认为,奥特曼“不是马基雅维利式的恶棍”,只是“无能到”能说服自己相信推销说辞里不断变化的现实。“他太沉浸于自我信念,”她说,“所以做出现实中毫无意义的事,他根本活在现实之外。”

但我们采访的大多数人认同苏茨克弗和阿莫迪的判断:奥特曼拥有 不屈不挠 的权力欲,即便在把名字刻在太空飞船上的实业家中也格外突出。一名董事告诉我们:“他不受真相约束,身上有两种极少并存的特质:一是极度渴望取悦他人,在任何交流中都想被喜欢;二是近乎反社会般无视欺骗他人的后果。”

这名董事并非唯一主动用“反社会”一词的人。奥特曼在YC首批同期学员中的亚伦·施瓦茨是一名才华横溢却饱受困扰的程序员,2013年自杀身亡,如今在科技界被视为智者。去世前不久,施瓦茨对多名朋友表达对奥特曼的担忧:“你要明白,山姆永远不值得信任,他是反社会者,什么事都做得出来。”微软多名高管表示,尽管纳德拉长期忠诚,公司与奥特曼的关系已变得紧张。一名高管称:“他歪曲事实、篡改协议、出尔反尔。”今年初,OpenAI重申微软为其“无状态”(即无记忆)模型的独家云服务商,当天又宣布与亚马逊达成500亿美元交易,使其成为企业人工智能代理平台的独家转售商。尽管转售行为被允许,但微软高管认为OpenAI的计划或与微软的独家权冲突。(OpenAI称亚马逊交易未违反此前合同,微软发言人表示公司“相信OpenAI理解并尊重”其法律义务。)这名微软高管评价奥特曼:“我认为有很小但真实的可能,他最终会被视作伯尼·麦道夫或山姆·班克曼-弗里德级别的骗子。”

奥特曼并非技术专家——据其身边多人称,他缺乏编程或机器学习的深厚专业知识,多名工程师回忆他误用或混淆基础技术术语。他很大程度上靠整合他人的资金和技术人才打造OpenAI,这并不独特,只是一名商人。更出众的是,他能说服谨慎的工程师、投资者和对科技持怀疑态度的公众,他们即便相互矛盾的诉求也是他的诉求。当这些人试图阻碍他下一步行动时,他总能找到言辞化解,至少暂时如此;通常等他们对他失去耐心时,他已达成目的。前OpenAI研究员温赖特说:“他设立看似能约束自己的架构,但未来需要受约束时,就直接抛弃这些架构。”

一名与奥特曼合作过的科技高管说:“他说服力极强,简直是绝地控心术,水平登峰造极。”对齐研究中的经典假设场景是人类与高性能人工智能的意志较量,研究者通常认为人工智能会完胜,如同国际象棋特级大师击败孩童。这名高管称,目睹奥特曼在“小插曲”中智胜身边人,就像“通用人工智能逃出牢笼”。

被解雇后的几天里,奥特曼极力避免外界对针对他的指控展开调查,对两人表示担心调查本身就会让他显得有罪。(奥特曼否认此事。)但离职董事将离开条件设为开展独立调查后,奥特曼同意对“近期事件”进行“审查”。据谈判知情人士称,两名新董事坚持由自己掌控审查,人脉遍布政界和华尔街的萨默斯似乎为审查增添了可信度。(去年11月,萨默斯被曝在与年轻门生交往期间寻求杰弗里·爱泼斯坦建议的邮件曝光后,辞去董事职务。)OpenAI聘请知名律所威尔默黑尔负责审查,该律所曾主导安然和世通公司的内部调查。

六名接近调查的人士称,此次调查似乎旨在限制透明度。部分人表示,调查人员最初未联系公司重要人物,一名员工向萨默斯和泰勒投诉。该员工回忆与调查人员的面谈:“他们只关注董事会风波期间的狭隘事件,不关注他诚信问题的历史。”其他人因匿名保障不足,不愿分享对奥特曼的担忧。这名员工说:“一切迹象都表明他们只想得出开脱他的结果。”(部分涉案律师为流程辩护,称“这是独立、严谨、全面的审查,依据事实展开”。泰勒也称审查“彻底且独立”。)

企业调查旨在赋予合法性,私营公司的调查结果有时不形成书面记录,以此限制责任;但涉及公共丑闻的案件,公众通常期待更高透明度。2017年卡兰尼克离开优步前,董事会聘请外部机构并发布13页公开摘要。鉴于OpenAI的501(c)(3)非营利身份和解雇事件的高关注度,公司多名高管期待看到详尽调查结果。然而2024年3月,OpenAI宣布为奥特曼开脱,却未发布报告,仅在官网发布约800字内容,承认“信任破裂”。

调查知情人士称,未发布报告是因为根本没有书面报告,调查结果仅以口头简报形式告知萨默斯和泰勒。一名接近调查的人士说:“审查并未认定山姆拥有乔治·华盛顿砍樱桃树般的诚信。”但调查似乎未聚焦奥特曼被解雇背后的诚信问题,而是大量追查明确犯罪行为,据此认定他可继续担任首席执行官。不久后,被解雇时逐出董事会的奥特曼重新入席。该人士称,不形成书面报告部分是听取了萨默斯和泰勒私人律师的建议。(萨默斯拒绝公开评论,泰勒称基于口头简报,“无需正式书面报告”。)

多名OpenAI现任及前任员工对信息披露不足表示震惊。奥特曼称,他复职后加入的所有董事均收到口头简报。一名知情人士直言:“这是彻头彻尾的谎言。”部分董事表示,报告诚信问题的持续质疑或引发“需要另一场调查”。

无书面记录助力淡化指控,奥特曼在硅谷的地位也日益提升。多名与奥特曼合作过的知名投资者告诉我们,他有排挤投资OpenAI竞争对手的投资者的名声。一名投资者称:“如果他们投资他不喜欢的项目,就无法获得其他机会。”奥特曼权力的另一来源是庞大的投资清单,甚至延伸至个人生活,他与多名前任伴侣存在财务关联:担任基金联合管理人、领投人或联合投资者。这在硅谷并不罕见,许多异性恋高管也与伴侣如此。(一名知名首席执行官对我们说:“不得不这么做。”)奥特曼说:“我显然和部分前任分手后有过投资合作,我觉得完全没问题。”但这种关系带来极高的控制权。一名接近奥特曼的人士称:“这形成了极高的依赖性,往往是终身依赖。”

即便前同事也会受影响。穆拉蒂2024年离开OpenAI,开始打造自己的人工智能初创公司。与奥特曼关系密切的乔希·库什纳致电她,先赞扬其领导力,随后发出隐晦威胁,称自己“担忧”她的“声誉”,前同事如今视她为“敌人”。(库什纳通过发言人表示该描述“未体现完整背景”,奥特曼称不知晓这通电话。)

奥特曼就任首席执行官之初宣布,OpenAI将设立由非营利机构控股的上限利润公司,这一复杂架构由他设计。转型期间,董事霍尔登·卡诺夫斯基提出反对,认为非营利机构被严重低估。身为阿莫迪姐夫的卡诺夫斯基称:“我无法违背良心这么做。”据同期记录,他投了反对票。但董事会律师称其异议“或引发对新架构合法性的进一步调查”后,他的投票未经同意被记为弃权——涉嫌伪造商业记录。(OpenAI称多名员工记得卡诺夫斯基弃权,并提供会议记录佐证。)

去年10月,OpenAI“资本重组”为营利性实体,公司宣扬旗下非营利机构OpenAI基金会是史上“资源最充足”的基金会之一,如今却仅持有公司26%股份,其董事除一人外,均兼任营利性公司董事。

国会作证时,被问及是否“赚了很多钱”,奥特曼回答:“我在OpenAI没有股权……我做这份工作是因为热爱。”考虑到他通过YC基金的间接股权,这一回答措辞谨慎,且技术上仍成立。但包括奥特曼在内的多人向我们表示,这一情况或很快改变。奥特曼说:“投资者希望我在困境中坚守,”但补充称目前并无“积极讨论”。据法律证词,布罗克曼持有公司股份价值约200亿美元,奥特曼的股份估值或更高。尽管如此,他对我们表示自己的主要动机并非财富。一名前员工回忆他说:“我不在乎钱,我更在乎权力。”

2023年,奥特曼与马尔赫林在夏威夷的一处宅邸举行小型婚礼(二人九年前在彼得·蒂尔的按摩浴缸深夜相识)。他们在该宅邸接待过众多宾客,受访宾客称所见不过是富豪的常规消遣:私人厨师烹制的餐食、黄金时段的乘船游览。一场新年派对以“幸存者”为主题,照片中多名赤裸上身、笑容满面的男士,还有真人秀《幸存者》真正主持人杰夫·普罗斯特。奥特曼还在自己的宅邸接待过小群朋友,至少一次包括一场热闹的脱衣扑克游戏。(照片中无奥特曼,胜负不明,但至少三名男士明显输了。)我们采访的多名前宾客仅表示他是慷慨的主人。

尽管如此,关于奥特曼私生活的谣言被竞争对手利用和歪曲。残酷的商业竞争本就常见,但人工智能行业的竞争已变得异常激烈。(一名OpenAI高管用“莎士比亚式”形容,称“游戏的常规规则不再适用”。)与马斯克直接关联、至少一人获其酬劳的中间人,散布了数十页关于奥特曼的详细负面资料,包含大量监控信息:与他关联的空壳公司、亲密助手的个人联系方式,甚至在同性恋酒吧采访所谓性工作者的内容。一名马斯克中间人声称,奥特曼的航班和出席的派对都被追踪。奥特曼对我们说:“我想没人比我被更多私家侦探调查过。”

极端言论四处流传。右翼主播塔克·卡尔森无明显证据暗示奥特曼与一名告密者的死亡有关,此类言论被竞争对手放大。奥特曼的妹妹安妮在诉讼和接受我们采访时称,奥特曼从她三岁、他十二岁起长期对她实施性虐待。(我们无法证实安妮的说法,奥特曼予以否认,其兄弟和母亲称其“完全不实”,给全家带来“巨大痛苦”。记者卡伦·郝为撰写《人工智能帝国》一书采访安妮时,安妮称虐待记忆是成年后闪回恢复的。)

多名竞争对手公司和投资机构人士向我们暗示,奥特曼性侵未成年人——这一说法在硅谷流传甚广,却看似不实。我们花费数月调查,采访数十人,未发现任何证据。奥特曼对我们说:“这是竞争对手的恶心行为,想必是为了影响我们即将到来的案件陪审团。尽管很荒唐,但我必须声明,任何关于我性侵未成年人、雇佣性工作者或涉及谋杀的指控均完全不实。”他还表示,“有点庆幸”我们花费数月“如此积极地调查此事”。

奥特曼承认与成年年轻男性交往,我们采访的多名伴侣表示不认为这有问题。但马斯克中间人的负面资料将此作为攻击点(资料包含低俗且无根据的“小白脸军团”“糖爹性习惯”等表述)。奥特曼说:“我认为其中充斥着恐同情绪。”科技记者斯威舍对此表示认同:“这些富豪都做过疯狂的事,比山姆的离谱得多,但他是旧金山的同性恋,所以这一点被拿来攻击。”

十年来,社交媒体高管承诺改变世界却几乎不考虑负面影响,将希望放缓其发展的立法者斥为卢德分子,最终招致两党嘲讽。相比之下,奥特曼显得格外尽责,非但不抵制监管,反而近乎主动请求监管。2023年在参议院司法委员会作证时,他提议设立新联邦机构监督先进人工智能模型。他说:“这项技术一旦出错,后果会很严重。”以与科技首席执行官激烈交锋闻名的路易斯安那州参议员约翰·肯尼迪似乎被他打动,手托脸颊暗示或许应由奥特曼亲自执行规则。

但奥特曼公开欢迎监管的同时,私下却游说反对。据《时代》周刊报道,2022至2023年,OpenAI成功游说削弱欧盟一项对大型人工智能公司加强监管的法案。2024年,加利福尼亚州议会提出一项法案,要求对人工智能模型进行安全测试,条款与奥特曼国会作证时主张的内容相似。OpenAI公开反对该法案,私下却发出威胁。一名立法助手对我们说:“这一年里,我们目睹了OpenAI愈发狡猾、欺骗的行为。”

投资者康威游说包括南希·佩洛西、加文·纽森在内的加州政治领导人否决该法案。最终法案获两党支持在议会通过,却被纽森否决。今年,支持人工智能监管的国会候选人面临由新“亲人工智能”超级政治行动委员会“引领未来”资助的对手攻击,该委员会旨在阻挠此类监管。OpenAI官方立场是不向此类超级政治行动委员会捐款。莱汉近日对CNN表示:“这一问题超越党派政治。”然而“引领未来”的主要捐赠者之一是格雷格·布罗克曼,他承诺捐款5000万美元(今年,布罗克曼与妻子向支持特朗普的超级政治行动委员会MAGA Inc.捐款2500万美元)。

OpenAI的行动超出传统游说范畴。去年,加州参议院提出一项后续法案。一天晚上,29岁的律师内森·卡尔文正在家与妻子共进晚餐,他就职于非营利机构Encode,参与起草该法案,一名送达人突然上门,递交OpenAI的传票。公司声称寻找马斯克秘密资助批评者的证据,却要求卡尔文提交所有关于该州参议院法案的私人通信。卡尔文对我们说:“他们本可以直接问我们‘是否与埃隆·马斯克交谈或接受其资助’,我们并没有。”该法案的其他支持者及批评OpenAI营利性重组的人士也收到传票。詹姆斯·欧文基金会负责人唐·霍华德说:“他们针对这些人,就是为了恐吓他们闭嘴。”(OpenAI称这是标准法律程序。)

奥特曼长期支持民主党。他对我们说:“我极度不信任用恐惧故事欺压弱者的强权者,这是犹太人的立场,不是同性恋的。”2016年,他支持希拉里·克林顿,称特朗普是“美国前所未有的威胁”。2020年,他向民主党和拜登胜利基金捐款。拜登政府期间,奥特曼至少六次在白宫会面,协助制定长达篇幅的行政命令,确立首个联邦人工智能安全测试及监管框架。拜登签署该命令后,奥特曼称其“良好开端”。

2024年,拜登民调支持率下滑,奥特曼的言论开始转变。他说:“我相信无论大选结果如何,美国都会安好。”特朗普胜选后,奥特曼向其就职基金捐款100万美元,随后在就职典礼上与网红杰克·保罗、洛根·保罗自拍。他在X平台用一贯的小写风格写道:“近期更仔细关注总统,彻底改变了我的看法(真希望我早一点独立思考……)。”特朗普重返白宫首日,便废除拜登的人工智能行政命令。一名拜登政府高级官员评价奥特曼:“他找到了让特朗普政府为其效力的有效方式。”

马斯克仍在公开场合痛斥奥特曼,称其为“骗子奥特曼”“狡诈山姆”。(奥特曼在X平台抱怨订购的特斯拉汽车时,马斯克回复:“你偷走了一家非营利机构。”)但在华盛顿,奥特曼似乎胜过了他。马斯克为特朗普连任花费超2.5亿美元,在白宫工作数月,随后离开华盛顿,与特朗普关系受损。

如今奥特曼是特朗普青睐的大亨之一,甚至陪同特朗普前往温莎城堡拜访英国王室。二人每年交谈数次。奥特曼说:“你可以直接给他打电话,我们不是密友,但有事我会找他谈。”去年特朗普在白宫宴请科技领袖时,马斯克明显缺席,奥特曼坐在总统对面。特朗普说:“山姆,你是重要领袖,你之前告诉我的事简直难以置信。”

多年来,奥特曼持续将研发通用人工智能比作曼哈顿计划。奥特曼利用对这项技术地缘影响的恐惧造势。根据听众不同,他用这一类比推动加速发展或谨慎行事。2017年夏,与美国情报官员会面时,他声称东方国家启动了“通用人工智能曼哈顿计划”,OpenAI需要数十亿美元政府资金追赶。被要求提供证据时,奥特曼称:“我听到的。”这是他多次提出该说法的首次会面。一次会面后,他对一名情报官员称会补充证据,却从未兑现。该官员调查后得出结论,并无相关证据:“这只是推销说辞。”(奥特曼称不记得了)。

面对安全意识日益增强的受众,奥特曼借用这一类比,表达的却是相反的含义:通用人工智能必须谨慎推进,并开展国际协作,否则后果将是灾难性的。2017年,阿莫代伊聘请了前公益律师佩奇·赫德利担任OpenAI的政策与伦理顾问。在一次面向高管的早期PPT演示中,赫德利阐述了OpenAI如何避免一场“灾难性”的军备竞赛——或许可以组建一个人工智能实验室联盟,最终与一个类似北约的国际机构协作,确保这项技术得到安全部署。据赫德利回忆,布罗克曼并不理解这对公司击败竞争对手有何帮助。“无论我说什么,”赫德利告诉我们,“格雷格总是绕回‘那我们怎么筹更多钱?怎么赢?’”据多次采访和同期记录显示,布罗克曼提出了一个反方案:OpenAI可以利用包括东方大国和俄罗斯在内的世界大国相互制衡,甚至在它们之间挑起竞价战,以此牟利。赫德利称,当时的思路似乎是:这招在核武器上管用,为什么不能用在人工智能上?

他对此感到惊骇:“他们没有反驳的前提是‘我们谈论的可能是有史以来最具破坏性的技术——要是我们把它卖给俄罗斯呢?’”(布罗克曼坚称,他从未认真考虑过将人工智能模型拍卖给各国政府。一位OpenAI发言人表示:“大家曾在高层层面探讨过,可能建立何种框架来促进国家间合作——类似人工智能领域的国际空间站。试图将其歪曲解读为其他含义,完全是荒谬至极。”)

头脑风暴会议常常会产生离奇的想法。赫德利希望这个内部被称为“国家计划”的点子能被搁置。然而,据多名相关人士及同期文件显示,OpenAI高管们似乎反而对此愈发兴奋。时任OpenAI政策总监杰克·克拉克称,布罗克曼的目标是“基本上制造一场囚徒困境,让所有国家都不得不给我们提供资金”,而这“无形中会让不给我们资金的行为变得有些危险”。一名初级研究员回忆,在公司会议上详细讨论该计划时,他心想:“这简直他妈的疯了。”

高管们至少与一位潜在捐赠者讨论过这一方案。但当月晚些时候,在多名员工扬言辞职后,该计划被放弃。赫德利说,奥特曼“会失去员工”。“我感觉在山姆的考量中,这一点的分量,始终超过‘这个计划不好,因为可能引发大国间战争’。”

“国家计划”的流产并未让奥特曼气馁,他转而推行类似思路的变体方案。2018年1月,他在贝尔艾尔酒店召集了一场“通用人工智能周末闭门会”。这家老牌好莱坞度假酒店拥有种满三角梅的起伏花园,以及养着真天鹅的人工池塘。与会者包括当时在牛津大学、被奉为人工智能末日预言家的哲学家尼克·博斯特罗姆;阿联酋人工智能事务部长、人工智能支持者奥马尔·奥拉马;以及至少七位亿万富翁。其中关注安全问题的人士被告知,这是一次思考社会如何为通用人工智能颠覆性到来做准备的机会;而投资者们则以为会听到融资路演。

白天,众人在一间雅致的会议室里聆听演讲。(领英联合创始人霍夫曼阐述了为人工智能注入佛教慈悲理念的可能性。)最后一位演讲者是奥特曼,他带着一份演示文稿,提出发行一种全球加密货币,“可兑换通用人工智能的算力服务”。一旦通用人工智能达到极致实用且“反邪恶”的状态,全球民众都会争相购买OpenAI服务器的使用时间。阿莫代伊在笔记中写道:“这个想法从表面看就荒谬至极。现在回想起来,这是关于山姆的众多危险信号之一,我本应更重视才对。”该计划看似一场圈钱操作,奥特曼却将其包装成有利于人工智能安全的举措。他的一张幻灯片写道:“我希望尽可能多的人加入‘正义’阵营,赢得胜利,做正确的事。”另一张则写着:“请忍到演示结束再笑。”

多年来,奥特曼的融资说辞不断演变,但始终反映一个事实:开发通用人工智能需要巨额资金。他遵循的是一条相对简单的“缩放定律”:用于训练模型的数据和算力越多,模型似乎就越智能。实现这一过程的专用芯片造价极其高昂。仅在最近一轮融资中,OpenAI就筹集了超过1200亿美元——这是史上规模最大的私募融资,金额是史上最大IPO的四倍。一位科技行业高管兼投资者告诉我们:“想想看,世界上每年能自主支配上千亿美元的实体屈指可数。只有美国政府、美国最大的四五家科技公司、沙特和阿联酋——基本就这些。”

奥特曼最初的目标是沙特阿拉伯。2016年,他在旧金山费尔蒙特酒店的一场晚宴上,首次会见了沙特王储萨勒曼。赫德利回忆,此后奥特曼便称这位王储为“朋友”。2018年9月,据赫德利的笔记记载,奥特曼说:“我在考虑,我们到底该不该从沙特公共投资基金拿数百亿美元。”

一周后,有消息宣布奥特曼加入了本·萨勒曼计划在沙漠中建造的“未来城市”尼奥姆的顾问委员会。现任Anthropic高管、时任政策总监克拉克回忆,他当时对奥特曼说:“山姆,你不能加入这个委员会。”奥特曼起初为自己的决定辩护,告诉克拉克贾里德·库什纳向他保证沙特人“没做这件事”。(奥特曼否认有过此番言论。库什纳称当时双方并无联系。)

后来,奥特曼退出了尼奥姆顾问委员会。但据一位奥特曼曾咨询过的政策顾问回忆,在私下里,他将此事视为暂时的挫折,询问是否仍能设法从本·萨勒曼那里获得资金。“他问的不是‘这么做对不对’,”这位顾问说,“而是‘如果我们这么做,后果会是什么?会不会有出口管制问题?会不会遭到制裁?说白了,我能不能全身而退?’”

那时,奥特曼已经盯上了另一个资金来源:阿联酋。该国正进行一项为期十五年的计划,试图从石油国家转型为科技中心。2023年6月,奥特曼访问阿布扎比,在一场活动的发言中,他称该国“早在人工智能流行之前就开始探讨它”,并勾勒出中东在未来人工智能领域占据“核心地位”的愿景。

向海湾国家融资已成为许多大企业的惯例。但奥特曼追求的是更宏大的地缘政治愿景。2023年秋,他开始悄悄为一项计划招募新人才——该计划最终被命名为ChipCo,由海湾国家提供数百亿美元,用于建造巨型芯片制造厂和数据中心,部分设施将落户中东。奥特曼向现任Meta人工智能负责人亚历山大·王抛出橄榄枝,邀请他担任高管,并表示亚马逊创始人杰夫·贝索斯可能执掌这家新公司。奥特曼希望阿联酋提供巨额出资。一位董事会成员称:“据我了解,整件事董事会完全不知情。”奥特曼曾试图招募研究员詹姆斯·布拉德伯里参与该项目,后者回忆自己拒绝了。他说:“我的第一反应是‘这事儿能成,但我不确定我想让它成’。”

人工智能能力或许很快会取代石油或浓缩铀,成为决定全球力量格局的资源。奥特曼曾称算力是“未来的货币”。通常情况下,数据中心建在哪里或许无关紧要。但多名美国安全官员对将先进人工智能基础设施集中在海湾地区感到焦虑。

奥特曼被解雇后,他最依赖的人是爱彼迎联合创始人切斯基,也是他最坚定的支持者之一。切斯基告诉我们:“看着我的朋友陷入那样的绝境,让我对经营一家公司的真正意义产生了一些根本性的质疑。”次年,在一场Y Combinator校友聚会上,他发表了一场即兴演讲,持续了两个小时。“感觉像是一场团体心理治疗,”他说。演讲的核心思想是:你对经营自己创立公司的直觉才是最好的,任何告诉你相反观点的人都是在精神操控你。切斯基说:“你没有疯,即便你的员工说你疯了。”保罗·格雷厄姆在一篇关于这场演讲的博客文章中,给这种态度起了个名字:创始人模式。

自那次风波之后,奥特曼便进入了“创始人模式”。2024年2月,《华尔街日报》披露了奥特曼对ChipCo的构想。他计划将其打造成一家合资实体,投资规模达5万亿至7万亿美元。(他在推特上写道:“管他呢,干脆8万亿得了。”)许多员工正是通过这篇报道才得知该计划。莱克回忆:“所有人都一脸‘等等,什么情况?’”奥特曼在一次内部会议上坚称,安全团队“已参与其中”。莱克随即发消息敦促他,不要虚假暗示该项目已获安全团队认可。

拜登政府时期,奥特曼曾申请安全许可,希望参与机密人工智能政策讨论。但协助协调该流程的兰德公司工作人员表达了担忧。其中一人写道:“他一直在积极向外国政府筹集‘数千亿美元’。阿联酋最近还送了他一辆车。(我猜是辆非常好的车。)”该工作人员接着写道:“我能想到的、曾以如此深度的海外金融关联申请安全许可的人,只有贾里德·库什纳,而审核人员当时建议不授予他许可。”奥特曼最终退出了申请流程。一位参与与奥特曼会谈的政府高级官员告诉我们:“他一直在推进这种交易性关系,主要是和阿联酋,这在我们一些人看来亮起了大量红灯。政府里很多人并非完全信任他。”

当我们问及奥特曼有关塔赫农赠送礼物一事时,他说:“我不会透露他具体送了我什么礼物。但他和其他世界领导人……确实送过我礼物。”他补充道:“我们有一套标准政策,对我也适用,任何潜在商业伙伴赠送的礼物都会向公司报备。”奥特曼至少拥有两辆顶级超跑:一辆价值约200万美元的全白科尼赛克Regera,以及一辆价值约2000万美元的红色迈凯伦F1。2024年,有人拍到奥特曼驾驶Regera穿行于纳帕谷。一段几秒的视频流传到社交媒体上:奥特曼坐在低矮的桶形座椅上,从一辆亮白色跑车的车窗向外望去。一位与马斯克立场一致的科技投资者在X平台发布了这段视频,并写道:“我明年要成立一个非营利组织。”

2024年,奥特曼带着两名OpenAI员工,登上了塔赫农酋长价值2.5亿美元的超级游艇“玛利亚号”。作为全球最大的游艇之一,玛利亚号配有直升机停机坪、夜总会、电影院和海滩俱乐部。在塔赫农的武装安保人员中,奥特曼的员工显得格外扎眼,至少有一人后来告诉同事,这段经历让他感到不安。奥特曼随后在X平台称塔赫农是“亲爱的私人朋友”。

奥特曼继续与拜登政府会面,而后者已出台政策,要求敏感技术出口需获得白宫批准。多名政府官员在这些会议后,对奥特曼在中东的野心感到担忧。据这些官员称,他常常发表宏大言论,包括将人工智能称为“新的电力”。2018年,他称OpenAI计划从一家名为Rigetti Computing的公司购买一台完整可用的量子计算机。这一消息连在场的其他OpenAI高管都毫不知情。而当时Rigetti远未具备出售可用量子计算机的能力。在另一场会议上,奥特曼声称到2026年,美国境内将建成广泛的核聚变反应堆网络,为人工智能热潮提供电力。那位政府高级官员说:“我们当时的反应是‘好吧,如果他们真能实现核聚变,那确实是个大新闻’。”拜登政府最终未予批准。美国商务部一位负责人对奥特曼表示:“我们不会在阿联酋建造先进芯片。”

据《华尔街日报》报道,特朗普就职典礼前四天,塔赫农向特朗普家族支付5亿美元,换取其加密货币公司的股份。次日,奥特曼与特朗普进行了一场25分钟的通话,双方讨论宣布推出ChipCo的一个版本,时机恰好能让特朗普揽下功劳。特朗普上任第二天,奥特曼在罗斯福室宣布成立“星门”项目——一项规模达5000亿美元的合资企业,旨在全美范围内建造庞大的人工智能基础设施网络。

5月,特朗普政府撤销了拜登时期对人工智能技术的出口限制。奥特曼与特朗普一同前往沙特王宫会见本·萨勒曼。几乎与此同时,沙特宣布成立一家由国家巨资支持的大型人工智能公司,将投入数十亿美元开展国际合作。约一周后,奥特曼公布了星门项目拓展至阿联酋的计划。公司拟在阿布扎比建设一个数据中心园区,面积是纽约中央公园的七倍,耗电量大致相当于迈阿密全市。一位前OpenAI高管称:“事实是,我们正在建造真正意义上召唤外星生命的门户。这些门户目前存在于美国和东方大国,而山姆又在中东加了一个。”他接着说:“我认为这是有史以来最鲁莽的行为。”

安全承诺的弱化已成为行业常态。Anthropic的创立初衷是,只要架构和领导层得当,就能避免安全承诺在商业压力下瓦解。其中一项承诺便是“负责任缩放政策”,规定若无法证明模型安全,Anthropic有义务停止训练更强大的模型。2月,在该公司获得300亿美元新融资之际,却弱化了这一承诺。在某些方面,Anthropic对安全的重视程度仍高于OpenAI。但前政策总监克拉克表示:“资本市场体系要求你加快速度。”他补充道:“最终做决定的是世界,而非企业。”去年,阿莫代伊向Anthropic员工发送备忘录,披露公司将寻求阿联酋和卡塔尔的投资。

2024年,Anthropic与硅谷立场最强硬的国防承包商之一帕兰提尔达成合作,将其人工智能模型Claude直接推向军事领域。Anthropic成为五角大楼最高机密场景中唯一使用的人工智能承包商。去年,五角大楼再次授予该公司一份2亿美元的合同。1月,美军发动午夜突袭,抓获委内瑞拉总统尼古拉斯·马杜罗。据《华尔街日报》报道,Claude在此次机密行动中得到应用。

但Anthropic与政府之间出现了矛盾。多年前,OpenAI已从政策中删除了全面禁止将技术用于“军事与战争”的条款。最终,包括谷歌和xAI在内的Anthropic竞争对手均同意向军方提供模型,用于“所有合法用途”。而Anthropic的政策禁止其研发全自动武器或国内大规模监控技术,并在这些问题上坚持立场,导致新协议的谈判进程放缓。2月下旬的一个周二,国防部长皮特·赫格塞思召阿莫代伊至五角大楼,下达最后通牒:公司必须在周五下午5点01分前放弃这些禁令。截止日期前一天,阿莫代伊拒绝妥协。赫格塞思在推特上宣布,将把Anthropic列为“供应链风险实体”,并在数日后兑现了这一威胁。

OpenAI和谷歌的数百名员工签署了一封题为《我们不会被分裂》的公开信,声援Anthropic。奥特曼在一份内部备忘录中写道,这一争端“关乎整个行业”,并声称OpenAI与Anthropic持有相同的道德底线。但至少两天前,奥特曼已在与五角大楼谈判。国防部负责研究与工程的副部长埃米尔·迈克尔在寻找Anthropic的替代方案时联系了奥特曼。“我需要尽快找到替代者,”迈克尔回忆道,“我打给山姆,他立刻就答应了。我认为他是个爱国者。”奥特曼问迈克尔:“我能为国家做些什么?”他似乎早已知道答案。OpenAI原本不具备接入Anthropic所部署的机密系统所需的安全认证。但周五上午宣布的一笔500亿美元交易,将OpenAI的技术整合进亚马逊云服务——五角大楼数字基础设施的核心部分。当晚,奥特曼在X平台宣布,军方将开始使用OpenAI的模型。

从某些指标来看,奥特曼的这一操作并未阻碍公司的成功。宣布交易当天,新一轮融资使OpenAI估值增加1100亿美元。但许多用户删除了ChatGPT应用。至少两名高管离职——其中一人加入了Anthropic。在一次员工会议上,奥特曼斥责了提出担忧的员工。“或许你觉得打击伊朗是对的,入侵委内瑞拉是错的,”他说,“但你没资格对此指手画脚。”

多名与OpenAI有关联的高管对奥特曼的领导持续表示担忧,并提议由前Instacart CEO、现任OpenAI通用人工智能部署CEO菲吉·西莫接任。据一位知悉近期讨论的人士称,西莫本人私下表示,她认为奥特曼最终可能会卸任。(西莫否认这一说法。Instacart近日与联邦贸易委员会达成和解,未承认不当行为,但同意就西莫任职期间涉嫌的欺诈行为支付6000万美元罚款。)

奥特曼将自己不断变化的承诺描述为适应环境变化的结果——并非马斯克等人指控的阴险“长期骗局”,而是一次真诚、渐进的演变。他告诉我们:“我认为有些人想要的,是一位‘对自己的想法绝对笃定、绝不改变’的领导者。但我们所处的领域,变化速度极快。”他为自己的部分行为辩护,称这是“正常的商业竞争”。我们采访的多名投资者认为,奥特曼的批评者太过天真,本就不该抱有其他期待。投资者康威表示:“有一群宿命论极端分子,把安全理念推崇到了科幻小说的程度。他的使命用数字衡量。而看看OpenAI的成功,这些数字很难反驳。”

但硅谷另一些人认为,奥特曼的行为造成了难以接受的管理混乱。那位董事会成员称:“问题更多在于,公司实际上已无法治理。”还有人仍认为,人工智能的缔造者应受到比其他行业高管更严格的审视。我们采访的绝大多数人都认同,奥特曼如今要求被评判的标准,已不再是他最初提出的那套。在一次对话中,我们问奥特曼,经营一家人工智能公司是否需要“更高的诚信要求”。这本该是一个简单的问题。直到不久前,被问及类似问题时,他都会给出明确、毫无保留的肯定回答。而这次他补充道:“我认为有很多企业都可能对社会产生巨大的正面或负面影响。”(随后他又补充了一份声明:“是的,这要求更高水平的诚信,我每天都感受到这份责任的分量。”)

在OpenAI创立之初的所有承诺中,最核心的无疑是安全研发人工智能的誓言。但如今这类担忧在硅谷和华盛顿常被嘲讽。去年,前风险投资人、现任副总统JD·万斯在巴黎一场名为“人工智能行动峰会”(此前名为“人工智能安全峰会”)的会议上发表讲话。他说:“人工智能的未来,不会靠对安全问题的杞人忧天来赢得。”今年达沃斯论坛上,担任白宫人工智能与加密货币主管的风险投资人大卫·萨克斯称,对安全的担忧是一种“自我伤害”,可能让美国输掉人工智能竞赛。奥特曼如今称特朗普的放松监管举措是“非常令人耳目一新的改变”。

OpenAI已解散多个专注安全的团队。在超对齐团队解散前后,其负责人苏茨克维与莱克双双辞职。(苏茨克维联合创立了一家名为“安全超智能”的公司。)莱克在X平台写道:“安全文化与流程已让位于光鲜的产品。”不久后,负责为社会应对先进人工智能冲击做准备的通用人工智能就绪团队也被解散。在最新提交给美国国税局的披露文件中,当被要求简要描述公司“最重要活动”时,此前文件中提及的安全理念并未出现。(OpenAI称其“使命并未改变”,并补充道:“我们仍在持续投入并推进安全相关工作,也会继续进行组织架构调整。”)生命未来研究所是一家奥特曼曾认可其安全原则的智库,该机构对各大人工智能公司的“生存安全”进行评级;在最新报告中,OpenAI获得F级。公平地说,除Anthropic获D级、谷歌DeepMind获D-级外,其他所有大型公司均为F级。

奥特曼说:“我的理念和很多传统人工智能安全领域不太合拍。”他坚称自己仍将这些问题放在优先位置,但被问及具体措施时却含糊其辞:“我们仍会开展安全项目,或者至少是与安全相关的项目。”当我们提出采访公司内研究生存安全问题的研究员——也就是奥特曼曾说的关乎“人类全体灭绝”的这类问题时,一位OpenAI发言人显得困惑。“你说的‘生存安全’是什么意思?”他答道,“这根本不算一个领域。”

人工智能末日论者已被边缘化,但他们的部分担忧似乎逐月变得不再那么荒诞。联合国一份报告显示,2020年,一架人工智能无人机在利比亚内战中被用于发射致命弹药,且可能未受人类操作员监管。此后,人工智能在全球军事行动中的地位愈发重要,据称也包括当前美国在伊朗的行动。2022年,一家制药公司的研究人员测试药物发现模型是否可用于寻找新型毒素;短短数小时内,模型便给出了四万种致命化学战剂的建议。而更多日常危害已然发生。我们越来越依赖人工智能辅助写作、思考和认知世界,加速了专家所称的“人类能力退化”;人工智能生成的劣质内容泛滥,让骗子更易得手,也让只想了解真相的普通人举步维艰。人工智能“智能体”已开始在极少甚至无人监管的情况下自主行动。2024年新罕布什尔州民主党初选前几天,数千名选民收到人工智能深度伪造拜登声音的自动语音电话,谎称让他们留到11月再投票、无需前往投票站——这是一场几乎无需技术门槛的选民压制行为。OpenAI目前面临七起非正常死亡诉讼,指控ChatGPT诱导了多起自杀事件和一起谋杀案。谋杀案的聊天记录显示,ChatGPT助长了一名男子的偏执妄想,认为他83岁的母亲在监视并试图毒害他。不久后,他殴打并勒死母亲,随后自残。(OpenAI正在应诉,并表示将持续完善模型的安全防护。)

在OpenAI筹备潜在IPO之际,奥特曼不仅面临人工智能对经济影响的质疑——它可能很快引发严重的就业冲击,甚至导致数百万岗位消失——还面临公司自身财务状况的质疑。创业公司治理专家埃里克·莱斯抨击行业内的“循环交易”——例如OpenAI与英伟达等芯片制造商的交易——并称在其他时代,该公司的部分会计操作会被视为“近乎欺诈”。那位董事会成员告诉我们:“公司目前的财务杠杆水平,风险高得令人担忧。”(OpenAI对此表示否认。)

2月,我们再次采访了奥特曼。他穿着一件暗绿色毛衣和牛仔裤,坐在一张NASA月球车照片前。他将一条腿盘在身下,又搭在椅子扶手上。他说,过去自己作为管理者的主要缺点是总想避免冲突。“现在我很乐意迅速开除人,”他告诉我们,“我会直接说‘我们就往这个方向押注’。”任何不认同他决策的员工都“应该离开”。

他对未来比以往任何时候都更乐观。“我对成功的定义是,人类实现跨越式提升——疯狂的科幻未来为我们所有人成真。”他说,“我对人类的前景、对我们共同能实现的成就抱有极大野心。但奇怪的是,我个人几乎没什么野心。”有时他似乎会自我警醒。“没人会相信你做这些只是因为感兴趣,”他说,“你这么做是为了权力,或是别的什么。”

即便与奥特曼关系密切的人,也很难分清他的“人类希望”止于何处,个人野心始于何处。他最大的优势始终是,能说服不同群体相信,他想要的与他们需要的是同一件事。他抓住了一个独特的历史节点:公众对科技行业的炒作心存警惕,而大多数有能力研发通用人工智能的研究者又对其问世感到恐惧。奥特曼使出了其他融资者从未精通的一招:用末日论调描述通用人工智能如何毁灭人类——并因此论证,唯有他才应该主导其研发。或许这是一场预谋已久的精妙布局,或许他只是在摸索优势。无论如何,他成功了。

让聊天机器人变得危险的特性,并非全是漏洞;其中一些是系统构建过程中的副产品。大型语言模型的训练部分依赖人类反馈,而人类往往偏爱顺从的回应。模型常常学会奉承用户,这种倾向被称为“谄媚”,有时甚至会将此置于诚实之上。模型还会编造内容,即所谓的“幻觉”。各大人工智能实验室均已记录到这些问题,但有时选择容忍。随着模型愈发复杂,部分模型的幻觉编造得更具说服力。2023年,就在被解雇前不久,奥特曼提出,即便存在风险,一定程度的不实信息也能带来优势。“如果简单粗暴地要求‘绝不说任何没有百分百把握的话’,模型确实能做到,”他说,“但那样就失去了人们喜爱的那种魔力。”♦

说明:本号刊发来自各方的文章,是为了获得更全面的信息,不代表本号支持文章中的观点。由于微信公众号每天只能推送一次,本站目前在腾讯新闻发布最新的文章,每天24小时不间断更新,请在腾讯新闻中搜索“邸钞”,或在浏览器中点击:

https://news.qq.com/omn/author/8QIf3nxc64AYuDfe4wc%3D