打开网易新闻 查看精彩图片

新智元报道

编辑:桃子 好困

【新智元导读】GPT-4o发布仅一天,先是首席科学家Ilya Sutskever,后是超级对齐团队负责人Jan Leike,在同一天官宣离职OpenAI。一时间,全网掀起热议,有人称OpenAI内部已经看到了AGI。

Ilya前脚刚离职,OpenAI超级对齐团队负责人Jan Leike,紧接着也官宣了。

打开网易新闻 查看精彩图片

评论区的下方,网友疯狂留言,「你们究竟看到了什么」?

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

2023年6月5日,OpenAI首次对外宣布成立了「超级对齐AI团队」,是因为预测到AGI可能会在十年内到来。

根据介绍,「前」首席科学家Ilya Sutskever和Jan Leike是最新团队的共同领导。

这一团队成立的目标是,试图用20%算力,在未来4年解决「超级智能对齐问题」。

超链接——OpenAI预言:超级智能10年内降临!正集结算力拯救人类,4年彻底攻克对齐

打开网易新闻 查看精彩图片

不仅如此,此前有爆料称,「超级对齐团队」已有员工主动离职,是因为对OpenAI负责人遵守AGI失去信心。

打开网易新闻 查看精彩图片

此外,该团队中还有2位因为泄密还被开除。

超链接 OpenAI内斗第二弹!Ilya亲信、超级对齐团队2人惨遭开除,被批泄密

打开网易新闻 查看精彩图片

Leopold Aschenbrenner(左), Pavel Izmailov(右)

而如今,核心leader离职,对于OpenAI来说,意味着什么?这一团队的目标还将继续吗?

打开网易新闻 查看精彩图片

没有优秀的人才,OpenAI什么也不是

马斯克曾对Ilya的评价是,「他是OpenAI成功的关键」。甚至,他还为了招聘Ilya,与拉里·佩奇关系破裂。

打开网易新闻 查看精彩图片

经常曝料OpenAI的内幕人Flowers表示,「Jan和Ilya只有在两种情况下才会离开OpenAI——

要么是AGI已经完成对齐,要么就是AGI根本不可能实现」。

打开网易新闻 查看精彩图片

网友猜测:内部AGI已实现

本来,前一天的OpenAI线上发布会,GPT-4o旗舰模型炸裂演示,让出许多人纷纷看到了AGI的未来。

但,这一波离职官宣,又让人们对OpenAI内部产生了诸多疑问。

难道,使命已经完成,AGI/ASI早已实现了吗?

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

有Reddit网友称,自己根本不关心Jan Leike是谁,但他也随着Ilya也离开了,更想知道的是——

OpenAI究竟发生了什么?

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

然鹅,评论区的「画风」是这样的:

他们内部已经有了AGI,现在他们已经被取代了,想要放松一下。

打开网易新闻 查看精彩图片

他们内部已经有了AGI,并得到了离开公司的指示,他们乖乖地遵守了。

打开网易新闻 查看精彩图片

关注AI风险的社区PauseAI发帖称,超级对齐团队几乎什么都没有了。

「离开OpenAI的安全研究科学家名单,正在以惊人的速度增长。从Ilya Sutskever、William Saunders、Leopold Aschenbrenner,再到Jan Leike...

Jan Leike曾认为,有10%-90%的人工智能会杀死我们所有人」。

打开网易新闻 查看精彩图片

4年超级对齐工作,10个月达标?

这肯定意味着超对准问题已经解决,工作完成了。他们计划用4年时间完成这项工作,但只用了10个月。

打开网易新闻 查看精彩图片

爱吃瓜的网友发现,Ilya官方账号只关注了3个账号——

打开网易新闻 查看精彩图片

OpenAI、Dachshund Community,以及Adam Sulik。

打开网易新闻 查看精彩图片

真正的重点是,Adam Sulik在Ilya离职的帖子下面直言道:

如果你真正关心人类的未来,你就应该无视一些像保密协议这样的文件,广泛公开地分享你所看到的一切。说出导致董事会纠纷和Sam被赶下台的原因。告诉大家是什么让你如此忧虑。

打开网易新闻 查看精彩图片

接着,Adam经过深思熟虑后,又从全面角度分析了这一问题:

也许是…问题不在于「安全问题」。 也许,他们对于一些模型是否显示出强烈的主观体验信号(即出现意识),存在分歧。 也许,涉及其中的人之间的分歧是基于「道德」原因,而不一定是出于安全原因。 或…也许这是出于安全考虑。 或…两者都有。

打开网易新闻 查看精彩图片

同样,有Reddit网友表示,Jan Leike的离职,显然是对OpenAI幕后发生的事情表现得非常不满意,甚至连掩饰都没有。

打开网易新闻 查看精彩图片

曾与Jan Leike共事的伙伴高度赞赏道,为确保AGI的安全性和有益性所做出的巨大努力,Jan是无人能及的。

打开网易新闻 查看精彩图片

2人主动离职,因OpenAI不对AGI负责

几天前,Business Insider曾报道称,有两名OpenAI分别负责治理和安全的人员主动离职了。

打开网易新闻 查看精彩图片

一位是Daniel Kokotajlo,还有一位是William Saunders。

据介绍,Kokotajlo是在4月份刚刚离职,而Saunders早在今年2月离开了OpenAI。

打开网易新闻 查看精彩图片

左:Daniel Kokotajlo;右:William Saunders

在治理团队工作的Kokotajlo,曾是GPT-4对抗性测试者。Saunders自2021年以来,一直在对齐团队工作,随后转入「超级对齐」团队。

Kokotajlo在其主页上的介绍中,称自己离职OpenAI,是因为对其在实现AGI关键时期,可能的不负责任行为失去了信心。

打开网易新闻 查看精彩图片

地址:https://www.lesswrong.com/users/daniel-kokotajlo

上个月,他甚至在自己主页中另一篇帖子中表示,解释了他决定离开的原因之一。

打开网易新闻 查看精彩图片

与此同时,他还参与了一场关于暂停AGI发展的讨论。

打开网易新闻 查看精彩图片

Saunders是在自己的LessWrong个人资料页面上,发表评论透露了,自己离职的消息。

打开网易新闻 查看精彩图片

值得一提的是,Saunders去年曾参与过罢免Sam Altman风波事件。

同时,他也是OpenAI「可解释性团队」的主管,研究如何使AGI安全,并弄清模型如何以及为什么这样做。

打开网易新闻 查看精彩图片

论文地址:https://arxiv.org/pdf/2206.05802

OpenAI高层变动,频繁换血

近期,OpenAI还经历了其他高管的变动。

上周,Information报道称,OpenAI两位高级高管已经离职——人事副总裁Diane Yoon和非盈利及战略倡议负责人Chris Clark。

打开网易新闻 查看精彩图片

这两人辞职,是在Altman离职风波后,由负责管理OpenAI的非盈利董事会再次聘用Altman的背景下发生的。

而这些事件,从另一个侧面突显了OpenAI独特的企业结构。

据称,这两位高管都是开发ChatGPT的团队中,任职时间最久的管理人员。

OpenAI发言人Kayla Wood在一份声明中表示,Yoon将在今年剩余时间内继续担任公司的顾问角色。目前担任人力资源负责人的Julia Villagra将接替Yoon成为人事副总裁。

Yoon自2018年加入OpenAI,负责人事业务,见证了OpenAI员工数显著增长(去年末已超过700人)。

打开网易新闻 查看精彩图片

去年11月,Altman被赶下台,她还管理了一周的动荡期,当时许多员工因不满Altman被解雇而威胁辞职。

而Clark在OpenAI工作已经超过8年,他自2016年起担任公司首位首席运营官。

根据税务文件,他还在2016年至2017年间担任该非盈利组织的董事会成员。

Clark此前与Altman在Y Combinator及其支持的位置共享初创公司Loopt合作,后者由Altman于2005年共同创立并最终出售。

2022年5月,Clark担任了新的职务,负责领导OpenAI的非盈利部门及多个全球运营职能,包括房地产、工作场所和战略倡议。

Clark在给员工的一封信中表示,「经过八年的精彩岁月,我决定退一步,更多地关注我在OpenAI之外深爱的人和项目」。

打开网易新闻 查看精彩图片

或许,OpenAI内部正在上演一部「权利的游戏」。

打开网易新闻 查看精彩图片

参考资料:

https://x.com/SmokeAwayyy/status/1790607808800727545

https://www.theinformation.com/briefings/openais-chief-scientist-a-former-foe-of-ceo-altman-resigns-with-key-ally?rc=cmz1ru

打开网易新闻 查看精彩图片