打开网易新闻 查看精彩图片

文 | 王启隆

出品丨AI 科技大本营(ID:rgznai100)

近日,外号“硅谷颜值最高 CTO”的 OpenAI 美女技术总监Mira Murati在旧金山《财富》杂志举办的“最具影响力女性”晚宴上,与该刊资深编辑 Michal Lev-Ram 展开了一场 20 分钟的对话,议题广泛,涵盖了 OpenAI 与苹果的合作关系、马斯克在 X 上的强烈反应、人工智能安全隐私顾虑、Mira 学习人工智能的故事等。

打开网易新闻 查看精彩图片

在采访中,Mira 为了向主持人解释 AI 技术的庞大机遇,作出了以下发言:

最近我们公开了 GPT-4o 模型,这是我们唯一的模型,而且对所有人免费开放。这件事的非凡之处在于,以目前技术发展的阶段,我们实验室中的强大模型与公众免费可获取的模型其实差距不大。这与历史上技术引入世界的路径截然不同,它让更多人有机会一起参与起来,亲身体验 AI 技术的能力与潜在风险,从而提前做好准备。

而这话令人浮想联翩:传说中的 Q* 难道只是一道泡影?还是说当前存在着数据或架构的限制,导致大模型的天花板只能是 GPT-4 水平,没法再往上突破?

这番发言还把知名学者、OpenAI 的“头号黑子” Gary Marcus 给炸了出来:

来自 OpenAI 本身的证据证明了我关于收益递减(diminishing returns)的猜想 —— 我认为人们还没有完全意识到这一时刻的重要性,所以我想把它说出来: OpenAI 一直在虚张声势,而他们的首席技术官刚刚暴露了一个事实:他们手里没有王牌。

从今天起的 12 个月内,GenAI 泡沫破灭的可能性将上升到 75%

打开网易新闻 查看精彩图片

底下的评论则调侃道:Mira把 Sam Altman 精心营造的炒作给搞砸了,她很快就不能再接受采访了。

打开网易新闻 查看精彩图片

为什么要说“又”?这是因为 Mira 曾经在二月份 Sora 发布后也接受过一次采访,当时她在回答 “Sora 是利用 YouTube 视频的数据训练吗” 这个问题时,含糊地表示 “Sora 只使用了公开可用的数据”,并迅速遭到了 YouTube 首席执行官 Neal Mohan 的明确回应:「如果 OpenAI 使用了 YouTube 视频来训练 Sora,那将“明显违反”我们的政策!」

打开网易新闻 查看精彩图片

值得一提的是,这一次 Mira 的表情并没有如上图一样耐人寻味,而是比较积极乐观:她在提到实验室内的模型和当前上线的模型差距不大时,想表达的意思是 “所以大家的机会很多,每个人都能参与进来”。

但作为首席技术官,Mira 是最了解内部模型的人之一,这种发言可谓是相当有分量,相当于给 OpenAI 的护城河透了个底。

下面,附上双语字幕视频和采访全文,让我们一起看看 Mira 都还说了什么:

 OpenAI CTO 采访揭底“背刺”奥特曼,GPT-4 已经碰到了大模型能力的瓶颈?
打开网易新闻 查看更多视频
OpenAI CTO 采访揭底“背刺”奥特曼,GPT-4 已经碰到了大模型能力的瓶颈?

采访全文如下:

Micha(采访者):Mira,感谢莅临,我们知道你现在分身乏术。

时间只允许我们深入几个话题,包括近期的新闻动态以及 Mira 作为 CTO 负责的领域。我首先想询问的是,在如此繁忙且舆论纷杂 —— 舆论好坏参半 —— 的环境下,你大约六年前加入 OpenAI 时,公司情况迥异,那时的 OpenAI 还相对默默无闻。你现在是否偶尔会怀念那段能全神贯注于工作的时光?

Mira:我们依然保持低头做事的态度,只不过工作的内涵已经今非昔比了。我们现在不再仅限于科研,而且随着研究的深入,如何安全且有益地将成果推向世界成为了新的挑战。OpenAI 的使命始终如一,只是研究上的进步促使我们的工作范畴不断拓展。现在公众对此也有很多关注,这对技术人员来说或许有些新奇,但考虑到我们工作的重大意义,这样的审视是必要的,也是正面的。

Michal:让我们再回溯一下,向那些不熟悉你成长历程的朋友简要概述你的职业生涯。你在互联网尚未普及的阿尔巴尼亚长大,人工智能是如何吸引你的?又是什么经历引领你走到了今天的位置?

Mira:自小我就对数学和物理学充满兴趣,因此我的学术背景深植于数学。之后我投身工程领域,在特斯拉的航空航天和汽车领域工作过。这就是我开始的地方。我开始对通过自动驾驶汽车在现实世界中应用人工智能越来越感兴趣。

随后,我进一步探索了在虚拟现实和增强现实中的 AI 与计算机视觉应用,致力于打造一种更自然、更直观的信息交互界面。正是这一系列的实践,让我一步步深入到人工智能的世界。我开始思考如何才能更深入地掌握人工智能,彼时我正考虑将 AI 应用于多个领域,但最终决定投身于通用人工智能的研究,深入探索其核心。

正是这份追求,引领我走向 OpenAI。那时 OpenAI 是一个非营利组织,现在我们是一个有限利润公司,但使命依旧。那就是公司的目标,董事会也在扩展。

Michal:接下来,我想聊聊最近的几则新闻。

Mira 刚刚提到了高层的扩展,这让我想到了 OpenAI 新任首席产品官兼 CFO Sarah Friar,你们刚把她纳入麾下。我相信在座的许多女士对 Sarah 应该并不陌生,她是一位有着丰富经验的上市企业高管,曾任 CEO 及 CFO。

这情形就像新婚夫妇常遇到的那样,刚举行完婚礼,第二天就被问及何时要小孩。这次聘请一位经验丰富的上市企业高管,是否也预示着公司将筹备 IPO?我们该如何解读这些高层变动?它们对公司的未来意味着什么?

Mira:实际上,这意味着OpenAI 正步入一个崭新阶段,我们服务于数百万计的用户、开发者和企业。为了顺利推进这一阶段的成长,我们必须有最能干、最优秀的管理团队。对于 Sarah 和 Kevin 的加入,以及他们带来的专业能力和领导力,我们感到非常振奋。

Michal:我早就猜到你嘴很严,可能不会透露 OpenAI IPO 的事宜。

那我们来聊聊与苹果的新闻吧。能否为我们深入剖析一下,从技术角度讲,这项合作究竟有何独特之处和重大意义?苹果将其誉为“迄今为止在大规模云计算 AI 运算上采用的最先进安全架构”。首先,你是否认同这一评价,特别是针对与苹果智能集成的部分?再者,能否向我们揭秘幕后,解释一下技术上为何说这合情合理,又是怎样的设计使得它既私密又安全?

Mira:与苹果的合作令我们倍感兴奋,因为它提供了一个绝佳的平台,使我们的技术得以无痕融入广大用户的生活,无需他们更换设备。技术以最优、最安全的形式来到用户身边。与苹果的合作至关重要,我们的理念高度契合,双方都极其重视产品的隐私保护和安全性能,无论是技术研发还是部署环节。我们在这方面完全同步,相信这将引领我们向更佳的方向前进。

Michal:苹果公司因重视隐私和安全的发布策略而广为人知,你认为这种特性对于那些对使用生成式 AI 产品(不仅仅是 ChatGPT)感到担忧的用户来说,是否能够促进他们建立起更多的信任呢?

Mira::在构建人们对 AI 的信任上,确实还有很长的路要走,这涉及到多方面的考量。这次与苹果的合作,我们希望能在这方面有所作为,为 AI 技术融入各类产品和不同场景的融合中树立正确的方向。通过这次合作,用户可以利用 Apple 账号便捷登录 ChatGPT,我们各自遵守适用于 ChatGPT 或 Apple 的隐私政策。我们双方都坚决捍卫产品隐私与安全,从 Apple 账号登录的信息,我们也不会记录 ——但当用户通过 ChatGPT 登录时,如果他们没有主动选择拒绝我们查看其数据,我们则会基于用户的同意进行必要的数据查看。当然,一旦用户明确表示不愿意,我们就不会查看他们的数据。此外,我们通常不使用任何未经用户同意的客户数据进行模型训练。

Michal:顺带一提,由于模型无法基于苹果操作系统用户的资料进行学习,这是否算是个限制?毕竟,这是海量的数据资源。

Mira:关键在于,我们必须首先确保用户利益得到保障。技术及其应用获得用户的信赖极为关键,让用户对自己的数据拥有控制权,明白数据如何被使用,以及在何处被使用,这些都是至关重要的。这些原则优先于任何可能影响技术进展的因素。

Michal:请原谅我,因为我接下来要引用埃隆·马斯克(Elon Musk)的话了,抱歉 ——他并不赞同这是隐私和安全的典范,他称这种整合为令人毛骨悚然的间谍软件。你对此有何回应?

(Mira 摇了摇头,耸了耸肩)

Michal:你不在乎?

Mira:这是他的观点。显然,我不这么认为,我们也不这么想。

我们深切关注用户的隐私及我们产品的安全性,以及我们如何开发和部署这项技术。我们在安全地部署技术方面有着强大的记录,之前对 GPT-3 就是这样做的,现在对 GPT-4 也是如此。

我们正尽可能地透明化,向公众传达我们的决策过程,并通过准备框架分享我们对前沿模型的看法以及我们在安全方面的策略。我们会继续通过准备框架和类似规范的东西保持透明度,我认为在模型行为处理方面,没有其他人有如此成熟且透明的框架,从高层次规则到非常技术性的决定及其复杂性,我们都在与公众分享,并提供了让人们提供反馈的机会。

同时,我们也正在尝试多种实验性的方式收集非用户的意见。我认为这些都是重要的事情。工作远未完成,我们还有很多要做,不仅是开放,我认为整个行业都需要在解释技术发生的事情上做得更多,增加更多的参与和自主性。但首先,我们必须解释清楚,因为现在最大的风险其实是利益相关者误解了技术本身

Michal:面对这些动态发展和你们正在进行的合作,我知道你们还正在训练一个新的 AI 模型,据说它将使公司更逼近通用人工智能(AGI)。我知道你对此投入了大量思考,包括预想最坏和最好的情形。我相信在座的各位和我一样,对这样的未来充满好奇。能否分享一下,你如何看待这个问题?你如何为未来做预案规划?你对未来的美好愿景又是怎样的?

Mira:我们的思考立足点在于,我们正在推进的技术无疑将带来深刻的变革,这不仅要求开发和应用这些技术的公司努力,也需要社会各界——包括民间团体、媒体、政府、监管机构、公众以及各行各业的人士——共同参与,形成一种共同的责任感,为这项技术的全球普及做好充分准备。但要实现共同责任,首先要让大家理解这项技术,并使其触手可及。

比如,最近我们公开了 GPT-4o 模型,这是我们唯一的模型,而且对所有人免费开放。这件事的非凡之处在于,以目前技术发展的阶段,我们实验室中的强大模型与公众免费可获取的模型其实差距不大。这与历史上技术引入世界的路径截然不同,它让更多人有机会一起参与起来,亲身体验 AI 技术的能力与潜在风险,从而提前做好准备。

显然,机遇是巨大的。我们谈论风险很多,因为它们极其重要,但如果我们不相信这里的机遇巨大,我们也不会这样做。

我个人认为,在医疗保健、教育等领域,AI 有着不可思议的潜力。而我们只是触及了这些能力与机会的皮毛,比如像可汗学院那样的个性化导师。但你可以想象,世界上任何地方,哪怕是最偏远地区的每个人,都能获得根据他们的思维方式、文化背景、兴趣定制的辅导,这太神奇了。

通常,我们并不会真正思考如何做到这一点,我们不会真正思考我们是如何学习或思考的,直到接受了大约十年的教育左右。这真是一个错失的良机。我真的相信,如果你能推动人类知识向前发展,就能推动社会和文明前进。在医疗保健、气候变化解决方案等方面,存在着无数的机会。带来这些先进的 AI 系统将极大地帮助我们。

当然,风险总是存在的。每当拥有如此强大的东西时,就必须应对负面影响和滥用问题。想想我们周围的世界,都是工程造物,而工程伴随着风险。我们已经学会了如何构建系统,如何建立信任,如何确保我们周围的工程安全,比如建筑、道路、桥梁等。所以,这也是一样的,我们必须建立所有这些我们信任的基础设施,使得这些技术的部署既安全又实用。这实际上与商业需求非常契合,因为人们想要可以使用、信任且安全的产品。

Michal:最后再提一个关于安全的问题,如今一切的进展速度之快,超越了桥梁建设乃至现实基础设施的发展。我知道你负责监管安全团队,而外界对此有很多看法,特别是去年底的那场风波,让人难以忘怀 —— 尽管你曾短暂代理 OpenAI CEO 一职,但之后的剧变实在太多。

能否跟我们说说,为何你坚信现有的约束和安全架构依然稳固?我想你肯定有此信心,否则也不会坚持至今。

Mira:你指的应该是我们的董事会架构吧?OpenAI 自设立之初,就一直在探索最适合的管理架构、激励机制及组织设计,以确保公司能以最佳状态推进使命。在这个过程中,我们根据使命实践和不断学习,做了几次调整。毕竟,我们是在探索未知,是在从事研究,这意味着边学习、边调整、边改进。

起初,我们从非营利转为有限盈利模式,目的就是确保有能力投资超级计算机、吸引人才,同时确保使命优先,这是不变的原则。

然而,去年 11 月我们意识到,原有的非营利董事会构成,成员多来自业外,且缺乏对外界的责任交代。考虑到我们正研发并部署着一项影响广泛的技术,董事会层面理应承担某种形式的责任。如今的董事会成员在非营利和大型企业领域经验丰富,他们正在深入探讨治理结构,力求找到既能平衡各方激励、确保使命导向,又能高度负责的最佳途径。