打开网易新闻 查看精彩图片

“我试图创造对人类负责和有用的系统,而不是追求理论上的超级智能。”

作为 DeepMind 联合创始人、Inflection AI 联合创始人兼首席执行官,以及如今的 Microsoft AI 首席执行官,Mustafa Suleyman 对当前的人工智能行业有着独到的个人见解,且十分谨慎。

在他看来,即使是最接近人工智能发展的人,也很难准确描述事物的发展方向。

日前,他接受了美国科技媒体 The Verge 主编 Nilay Patel 的采访。在访谈中,他谈到了与OpenAI 的关系、超级智能何时真正到来,以及人工智能对相关产业及内容管理带来的影响与挑战等多个话题。

谈及 OpenAI,他直截了当地表示“与 OpenAI 的合作......将成为计算机史上最成功的合作之一”,并希望这种合作能长期持续下去,当然,如果“OpenAI 宣布实现 AGI 并退出微软的交易”,微软也有后备计划,“我们拥有一支出色的团队,我们将确保无论发生什么,我们都能训练出世界上最好的模型”。

他对通用人工智能(AGI)持谨慎乐观态度,但认为AGI 在现有的一两代硬件基础上不太可能实现,称“在未来两到五代产品中的某个时间点或许可行”,给出了一个相对保守的数字——5-7 年。

此外,他还谈到,AGI 与奇点概念不同,应被看作为一种通用学习系统。

部分观点如下:

  • 人工智能所面临的挑战是,它变得如此戏剧化,以至于我们最终没有把注意力集中在系统所能做的具体能力上。

  • Scaling laws 依然有效,后续模型将继续取得与前代相同的震撼性成果,但成本更高,也更脆弱,需要更长的时间训练。因此,我们不会在 12 到 18 个月内看到它们,这一时间可能为 18 到 24 个月,或者更长。

  • 当模型的单次训练运行达到 10 到 27 FLOPS 时,世界上只有三、四个实验室拥有足够的资源来进行这种规模的训练。

  • 或许,正如任何人都可以在合理使用的前提下阅读新闻和网络内容以增长知识一样,人工智能也可以,因为人工智能基本上是一种帮助人类从公开资料中学习的工具。

  • 幻觉不一定是有毒的、有偏见的、令人反感的,它并不完美,但已经越来越好了,而且随着风格控制的加强,它只会越来越好。

  • 每一个浏览器、搜索引擎和应用程序都会被某种对话式界面、某种生成式界面所代表。

  • 劣质内容是可以被检测出来的,或者说故意歪曲事实或误导的人工智能内容是可以被检测出来的,因为总会有更好的模型。

学术头条在不改变原文大意的情况下,对部分访谈内容做了精编。内容如下:

Nilay Patel:欢迎 Microsoft AI 的首席执行官。

Mustafa Suleyman:很高兴和你一起(交谈)。

NP:我也是。我有很多问题想问你,关于 Microsoft AI 部门在微软内部的结构,担任 Microsoft AI 首席执行官意味着什么(在一家最近似乎只关注人工智能的公司里),你是如何做出决策的。我将从头开始。我希望你已经准备好了,因为我意识到,如果你的回答方式不同,那么整个采访就会朝着不同的方向发展。最近,Sam Altman 在 Reddit AMA 上说,他认为我们可以在目前的硬件上实现通用人工智能(AGI)。你认为这可能吗?

MS:目前的硬件指的是什么?

NP:我想应该是一两代以内的硬件。

MS:我不认为英伟达的 GB200 可以做到这一点。但我认为,在未来两到五代产品中的某个时间点,这将是可行的。我不想说我认为两年后的可能性很大,但我认为在未来五到七年内是可行的,因为现在每一代需要 18 到 24 个月的时间。因此,五代的时间可能长达 10 年,这取决于事态的发展。对于这些芯片,我们确实面临着越来越严峻的挑战。我不认为它的发展或每美元成本会像我们过去看到的那样线性。但发展速度非常快。所以,我同意你的看法。

NP:所以,你认为是两年到十年之间吗?

MS:这个问题的不确定性非常高,任何明确的声明对我来说都是毫无根据的,都是夸夸其谈。

NP:你和我在过去曾多次谈到很多事情,我想跟进所有这些想法。我只是想到,如果我们认为 AGI 还需要两年到十年的时间,也就是在我们的有生之年,也许我们就不应该再研究其他东西了。这似乎将是一个范式的转变,对吗?我们正在经历奇点,已经有了人工智能。在它的另一端,一切都将不同。你如何做到这一点,然后再考虑”我需要在 iPhone 上启动 Copilot 应用程序“?

MS:这取决于你对 AGI 的定义,对吧?AGI 不是奇点。奇点是一个指数递归的自我完善系统,它能非常迅速地加速,远远超越任何可能看起来像人类智能的东西。

在我看来,AGI 是一种通用学习系统,能够在所有人类水平的训练环境中表现出色,包括知识工作,以及体力劳动。我之所以持怀疑态度,很大程度上与机器人技术的进步和完成工作的复杂性有关。但是,我完全可以想象,我们有一个系统,它可以在没有大量手工制作的事先提示的情况下学习,在非常广泛的环境中表现出色。我认为,这并不一定会成为 AGI,也不会导致奇点,但这意味着,在未来五到十年内,人类的大部分知识工作可能会由我们开发的人工智能系统之一来完成。我之所以对奇点或人工超级智能的说法避而不谈,是因为我认为它们是截然不同的东西。

人工智能所面临的挑战是,它变得如此戏剧化,以至于我们最终没有把注意力集中在系统所能做的具体能力上。而这正是我在构建人工智能伴侣时所关心的,让它们对作为人类的你有用,为作为人类的你工作,站在你这一边,站在你的立场,站在你的团队中。这就是我的动机,也是我能够控制和影响的,我试图创造对人类负责和有用的系统,而不是追求理论上的超级智能。

NP:我对此特别好奇的原因之一是,所有人类的知识工作都可以在能力很强的通用人工智能的协助下完成,或者由人工智能自己完成。这意味着我们将建立一种新的人工智能系统,对吗?一个能像人类知识工作者一样具有创造力的系统,它的创造力能达到第 99 百分位数(99th percentile)。而在我们现在的系统中,我看不到这一点。LLM 的工作方式是,它们不一定会提出一大堆单独的创造性想法。你可以促使它们做出令人惊讶的事情,但这种转变(变成更多的东西)——我还没有经历过。你认为目前构建、训练和部署 LLM 的方式是通往你所描述的那种 AGI 的直线路径,还是我们需要构建另一种东西?

MS:有趣的是,两三年前,人们经常会说:“这些系统注定会重复它们所接受的训练数据”。查询训练数据和输出结果之间存在某种一对一的映射关系。如今很明显,它们实际上并没有这么做。对训练数据的多个 N 维元素之间的空间进行插值,这本身就是一个创造性的过程,对吗?它在这个极其复杂的空间中选取某一点,以产生或生成它从未见过的新颖形式的问题答案。我们从未见过以这种特定方式产生的特定答案。对我来说,这就是创造力的开端。它是真正新颖发明的曙光,而这显然正是我们要创造的。

在整个历史长河中,智能正是推动我们在世界上取得进步的动力。它是一种能力,能够综合大量信息,将其聚合成概念表征,帮助我们在复杂的空间中更有效地推理,预测世界可能会如何发展,然后根据这些预测采取行动。无论你是在做一张桌子,还是在和朋友打棒球,你所经历的每一个环境都具有这些特征。

因此,如果我们能将这些时刻提炼成算法结构,当然会有巨大的价值。我认为,我们在过去三四年中看到的这个小时刻,是 LLM 真正能够发挥创造力、做出真正的判断、产生新颖想法的曙光。你关于它们能否主动做到这一点的观点很好。比如 LLM 能在没有提示的情况下做到这一点吗?它们能独立完成吗?它们能否在非常微妙、细致或轻量级的指导下做到这一点?我认为这是个悬而未决的问题。我本人对此感到非常乐观。

现在,确保 LLM 能够做到这一点的大部分基础架构都是工程问题。有状态的内存和对模型当前上下文的元推理,是我们现在知道如何在软件中做到的事情。我们知道如何引入第二个或第三个系统来观察 LLM 在其活动中的工作状态,并以此来引导或重新引导它正在运行的提示。如果你能做到异步元推理,也就是最初的“思维链”方法在过去 6-12 个月里所显示的,那么你就可以想象它如何在这些连续的环境中将行动串联起来

然后,它可以与它的工作记忆的其他部分、它的系统的其他部分——其中有些是为了做更短期的事情,有些是从长期记忆中汲取养分,有些是为了更有创造力,有些是为了更遵守你所设计的行为政策或安全政策——进行协调和配合。

因此,这显然还没有完成,但有非常非常明显的迹象表明,我认为我们正走在正确的道路上。

NP:这些协调系统让我着迷,因为模型本身并不是确定的。它们永远不会产生两次相同的输出。我们希望计算机能做的很多事情都是非常确定的。我们肯定希望它们重复做同样的事情。在各种情况下,人工智能都可能非常有用,比如你想做税务准备工作,你希望人工智能非常有用,能够理解所有的输入。同时,你也希望它在任何时候都能百分之百地遵守规则。

在这里,连接我们的逻辑计算机系统来控制非确定性人工智能系统似乎是一个重要的途径,比让人工智能变得更有能力更重要。这似乎是我最近才看到的一种新的讨论方式。你觉得这是你需要打造的产品类型,还是你仍然专注于模型本身的能力?

MS:这是一个很好的框架,但我们还是要弄清楚你所说的决定论是什么意思。因此,决定论是在抽象层中运作的。在最底层,每个 token 都是以非确定方式生成的。随着这些输出在行为政策、启发式或已知目标(如填写税表)方面的可识别性越来越高,这些知识就可以存储在更加稳定和确定的表征中。

而这正是当今人类的工作方式。无论你把某件事记忆得多好,如果我让你重复做 100 次,你的输出结果很可能会有一些变化。我们并不是真的以确定性的方式存储东西。我们有共同出现的概念表征,这些表征相当流动和抽象。然后,我们将它们复制并融入文字和语言的图式中,以便我们能够相互交流。

这些模型实际上与这种架构非常相似。它们可以存储稳定的信息,并能以相当确定的方式进行检索,而且就像你说的那样,能与现有的计算机系统和知识库集成。但也不能说一种方法会压倒另一种方法。模型的功能会越来越强大,检索、信息访问、使用现有数据库或调用第三方 API 来整合信息的方法也会同时进步。

顺便说一句,我们还将开辟第三条“战线”,那就是这些 LLM 现在可以说自然语言了。它们将能够实时查询其他人类和其他人工智能。因此,这就像是“检索”或验证信息、获取新知识或检查状态的第三种范式。除了直接的模型功能和与现有系统的集成之外,这本身就会带来巨大的收益。

NP:我想详细谈谈其中的智能体部分,因为这似乎是许多公司关注的焦点,在某种程度上也包括微软。它对我们的计算机系统和网络应该如何工作提出了无数的问题。我们认为,从现在开始的两年到十年之间,我们将迈向 AGI,我们认为我们可以通过提高模型能力来实现这一目标,同时也可以通过一些新颖的方法来使用这些模型

我想谈谈你们微软是如何做到这一点的。我从一开始就想到,如果我们不能就目标达成一致,那么结构对话就会脱离现实。所以,这些就是目标。这些都是巨大的目标。这些都是巨大的目标。在微软人工智能公司,你们是如何组织架构来实现这些目标的?

MS:这是一个很好的问题。首先,我的组织专注于消费者人工智能部分。因此,它与必应、Edge、MSN 和 Copilot 有关——这些面向消费者的产品拥有数以亿计的日活跃用户、大量的用户数据和大量直接的商业表面,我们可以在这些表面上部署生产、获得反馈并推动大规模实验。对我来说,这是至关重要的任务,因为五年前,我们在 LLM 和人工智能方面还处于依赖基准来推动进步的状态。评估基本上是在学术环境中进行的,尽管是在商业工程实验室。模型还不够好,无法真正投入生产并收集来自真实世界的反馈。现在情况完全不同了,所有的创新都是在生产中通过优化和爬坡实现的。所以,我认为这是第一点。

第二点要说的是,我们的 Azure 业务和每天使用 M365 Copilot 的大量客户提供了另一个巨大的实验框架,这与消费者实验框架截然不同。实际上,这对我来说是一个很好的机会,因为我从许多企业如何将真正的 AI 智能体集成到他们现在的工作流程中学到了很多东西。由于他们对内部数据有更高的可见性和控制力,而且在许多情况下,他们拥有数万甚至数十万名员工,因此他们能够在工作流程中引入新颖的 Copilot,无论是用于培训销售代理、提高表现不佳的销售代理的技能,还是提供营销反馈。我见过人力资源 Copilot,也见过各种各样的客户服务 Copilot。这让我看到了在企业第三方生产环境中测试和挑战这些人工智能模型极限的各种不同风貌。

第三个领域,当然是我们与合作伙伴 OpenAI 的合作。我认为这将成为计算机史上最成功的合作之一。这种合作关系已经持续了五年,还将持续很多年。我们从他们那里获得模型,我们获得知识产权(IP),他们获得计算和资金。对我们来说,这显然是一个巨大的支持来源。

第四个领域是,自从我八、九个月前到来后,我们发展了自己的核心力量,在 Microsoft AI 内部大规模开发这些模型。我们拥有一些最优秀的人工智能研究人员和科学家,他们正在为我们的 weight class(权重级别)推进后训练和前训练的前沿技术。我们选择的每秒浮点运算(FLOPS)匹配目标真正适合我们所关注的使用案例,并确保我们拥有能够做到这一点的绝对世界级的前沿模型。

NP:让我来解释一下这里的一些词汇。你说的“weight class”,是指巨型企业,还是指更具体的指代?

MS:“weight class”是我们将前沿模型相互比较的方法。你的 FLOPS 需要与你评估自己的竞争对手模型相匹配。因此,大小真的很重要。在这些模型中,它是迄今为止最重要的性能预测指标。你不能把自己与 FLOPS 大 10 倍的东西进行比较。你必须将它们视为 weight class 或 FLOPS class(如果你愿意)。

NP:我觉得有道理。你刚刚说你想专注于你正在使用的应用程序,对吗?所以,你们正在制造许多面向特定微软产品的模型?

MS:没错。所以,如果你仔细想想,Copilot 下面是一个不同模型类型、不同模型大小的整体集合,可以适应不同的环境。如果你在语音环境中,它就是一个不同类型的模型。如果是在桌面上,如果是在 Mac 或 Windows 的原生应用程序中,它们的模型都略有不同。此外,在搜索、推理和安全方面也有不同的模型,我认为随着时间的推移,这些模型将变得更加多样化。

NP:然后,我只想弄清楚这一点。听起来你们正在开发一个前沿模型,可以与 Gemini、GPT-4 或未来的 GPT-5 竞争。你们也在研究这个吗?

MS:就目前的 weight class 而言,是的,在 GPT-4、GPT-4o 级别。但这取决于未来几年的发展情况,因为每个数量级的增长都是物理基础设施的巨大进步。你说的是几百兆瓦,很快就是几千兆瓦的容量。当我们的单次训练运行达到 10 到 27 FLOPS 时,世界上只有三四个实验室拥有足够的资源来进行这种规模的训练。我们和 OpenAI 之间不会重复这种情况。OpenAI 是我们在这些方面的预训练前沿模型合作伙伴,我们希望这种合作能长期持续下去。

NP:所以,你们不会在下一代模型进入竞争,对吗?你们依然打算让 OpenAI 来做这件事。我之所以这么问,是因为微软运营着数据中心,对吗?这种合作关系一直在持续,但亚马逊和谷歌都运营着自己的数据中心,无论合作关系有多好,似乎都存在着核心矛盾。在“我们将建造这些数据中心,并在美国重启核电站,为其中一些数据中心供电”和“也许将这些数据中心卖给别人比自己建造模型更好”之间,存在着这样的矛盾。你感受到这种紧张关系了吗?

MS:每种伙伴关系都有紧张的时候。这是健康和自然的。我的意思是,他们的业务与我们完全不同。他们独立运营,合作关系随着时间的推移而发展。早在 2019 年,Satya Nadella 就向 OpenAI 投入了 10 亿美元,这看起来非常疯狂。我不认为这很疯狂,但我认为很多人都认为这很疯狂。现在,这已经有了回报,两家公司都从合作中获得了巨大的收益。因此,合作关系会不断发展,必须适应当时的情况,我们将拭目以待未来几年的变化。

NP:如果 OpenAI 宣布实现 AGI 并退出微软的交易,你们有后备计划吗?有一些可信的报道称,如果他们宣布 AGI,他们可能会退出交易。

MS:不,AGI 的定义并不明确。在 Microsoft AI 内部,我们拥有世界上最强大的人工智能研究团队之一。我们的联合创始人 Karén Simonyan 曾在 DeepMind 领导深度学习扩展团队长达 8 年之久,是许多重大突破的背后功臣。Nando de Freitas 刚刚加入,他之前在 DeepMind 负责音频/视频生成工作长达 10 年之久。因此,我们拥有一支出色的团队,我们将确保无论发生什么,我们都能训练出世界上最好的模型

NP:让我来问问你,因为模型开发......我们需要得到更多我们现在拥有的模型。这里面有点矛盾。有一种观点认为,scaling laws 即将失效,下一类模型不会明显优于我们现在拥有的模型,我认为你可以从我们谈论产品的方式中追踪到这一点。

几年前,我们还在说“人工智能会带来生存风险”,“我们必须阻止它”,“这样我们就能确保它在杀死所有人之前就被对齐”。而现在,我们的想法是,“好吧,我们得从现在的模型中获得更多。希望能生产出一些产品,赚点钱,然后搞清楚这些产品有什么用,如何更好地利用它们,因为下一代的模型似乎并没有我们想象的那么好。你是否认为,前沿模型的发展速度不如我们想象的那么快,因此我们必须从现有的模型中获得更多的利益?

MS:不,我不这么认为。我认为,它们将继续取得与前几代相同的震撼性成果。请记住,它们的成本更高,也更脆弱,这次需要更长的时间来训练。因此,我们不会看到它们在 12 到 18 个月的时间内出现。它将转变为 18 到 24 个月,然后更长一些。但我看不到任何结构性放缓的迹象。我看到的恰恰相反。我们今天可以从中获得巨大的收益,但我很清楚,在接下来的两个数量级的训练中,我们也可以从中获得巨大的收益。

NP:我想确保我们能谈谈你提到的事情,即信息的商品化,然后我一定要确保我们能快速地谈谈智能体,以便将这一切带到未来的产品中去。我认为,信息商品化是我们今天的互联网——平台互联网——的一个重要故事。你访问谷歌,问它一个问题,现在它可能会吐出一个人工智能生成的答案。你访问 MSN,向它询问新闻,它可能会通过算法或人工智能对一堆新闻进行分类,并为你总结这些新闻。

每个人都在朝这个方向前进。我们已经讨论这个问题很久了。为了训练下一代模型,我们需要更多的信息。我想说,你说互联网上的信息是“免费软件”,并期望可以用它来训练,这给你自己带来了一些麻烦。现在有很多诉讼,包括几起针对微软的诉讼。在我们理清使用这些东西进行训练所涉及的版权问题之前,你认为下一批信息从何而来?

MS:有一种思考方式是,计算量越大,这些模型就能花费越多时间来处理所有训练数据中的各种关系成分。把 FLOPS 看作是一种理解时间的方式,即学习所有这些不同训练输入之间的关系。因此,首先,你仍然可以通过更多的计算来学习所有现有数据,从而获得更多的收益。其次,我们可以从交互数据中学到大量知识。用户以隐性或显性的方式告诉我们对输出结果的感受。质量高吗?是否被使用?是否被忽视?第三,我们正在生成大量的合成数据。合成数据的质量越来越高。当你要求人工智能教师或评分员比较两到三个不同的合成输出和人类书面输出时,要发现这些精确的细微差别是非常困难的。

因此,合成数据的质量越来越高,并可用于各种不同的场合。第四,我可以想象人工智能与其他人工智能对话,寻求反馈——这些人工智能已经针对不同的专业领域或不同的风格进行了预设,并以不同的方式进行提示。你可以想象,这些互动会产生有价值的新知识,因为它们的基础来源不同,或者仅仅因为它们的风格输出,它们就会产生新颖的互动。因此,我并不认为数据很快就会成为限制。我认为,在可预见的未来,规模化仍将带来巨大收益。

NP:所以,这都是新数据,对吗?你会得到一堆交互数据。也许合成数据的质量足以训练下一代模型,但最初的数据集是网络。这是一堆网络内容。这是整个互联网的内容,也许在某种程度上是一些模型提供商的视频平台的内容。

你在 6 月份对 Andrew Ross Sorkin 说过一句话。这里有一段话,你说:“我认为,对于已经在开放网络上的内容,自上世纪 90 年代以来,这些内容的社会契约就是合理使用,任何人都可以复制、再创造、再制作。这就是‘免费软件’,如果你愿意,这就是人们的理解。”我很好奇......你是这么说的。这是对搜索的理解,围绕搜索、谷歌图片搜索和谷歌图书引发了大量诉讼。你认为在人工智能时代,在所有诉讼都悬而未决的情况下,这对你来说还足够稳定吗?

MS:我在那个环境中描述的是到那时为止世界对事物的看法。我的看法是,正如任何人都可以在合理使用的前提下阅读新闻和网络内容以增长知识一样,人工智能也可以,因为人工智能基本上是一种帮助人类从公开资料中学习的工具。我们用于生成或训练模型的所有资料都是从公开资料中截取的。

NP:我不知道科技行业是否已经处于这种境地。我不知道这些产品是否像谷歌有史以来第一次在互联网上推出的产品那样明显有用,我也不知道这些产品是否像谷歌在上世纪 90 年代和本世纪初那样受到了创作者的青睐。在我看来,这就像是你在《经济学人》的董事会里一样。对我来说,这就好像是工作的人们最复杂的心情。因为是的,我认为我们中的很多人都能看到产品的价值,但我们也看到价值转移到了大型科技公司,而不是后起之秀,不是办公室里拿着幻灯片的可爱孩子们。

MS:我认为这将比搜索更有用、更有价值。我认为搜索已经完全崩溃了,我认为这完全是一种痛苦,我们已经习惯了这种糟糕的使用体验。输入查询... 想想什么是查询。由于搜索引擎的弱点,我们不得不发明“查询”这个词来描述你在搜索引擎中表达句子或问题的这种非常奇怪的、受限制的方式。然后,你会得到 10 个蓝色链接,这些链接与你要找的东西隐约相关。你点击其中一个,然后你就必须去完善你的查询。我的意思是,这是一种痛苦而缓慢的体验。

我认为,如果我们能把这个问题解决好,如果我们能真正把幻觉减少到最低限度......我认为我们已经证明,幻觉不一定是有毒的、有偏见的、令人反感的,以及所有其他的东西。这很好。它并不完美,但已经越来越好了,而且我认为,随着风格控制的加强,它只会越来越好。那么,这些对话式互动将成为网络的未来。这很简单。这是下一个浏览器;这是下一个搜索引擎。

对我来说,只要用语音对我的 Copilot 说:“嘿,Copilot,这个问题的答案是什么?”就会容易 100 倍。这是我的常用工具。它是我 iPhone 右下角的应用程序。我的拇指会立即指向它。我用电源按钮打开它。我最喜欢的应用程序,就像我用 Pi 时一样。我的意思是,对话互动显然是未来的趋势。因此,在我看来,它的实用性是惊人的,我认为这将成为法院审理案件时的重要依据。

NP:我认为这直接导致了智能体的出现,你可以要求手机上的某个应用程序或电脑操作系统的某个部分做某事,然后它就会去做。它会把信息反馈给你,或者代表你完成一些任务,然后把结果带给你。你我之前以各种方式讨论过这个问题。这让很多服务提供商本身商品化了,对吧?你说,“我想吃三明治”,现在我不知道是 DoorDash、Uber Eats 还是 Seamless,或者谁会给我送三明治。我的人工智能会出去和他们交谈。这意味着他们将允许这种情况发生——他们将允许智能体使用他们的服务。

在最好的情况下,他们会提供 API 供你使用。在最坏的情况下,他们会让人们在他们的网站上随意点击,这也是我们见过的其他公司所做的事情。在中间情况下,他们会开发某种人工智能与人工智能之间的对话。不完全是 API ,也不完全是我们在网站上点击并假装是人类,但我们的人工智能会进行一些对话。对这些公司来说,建立所有这些系统或允许以这种方式去中介化的动力是什么?

MS:我的意思是,当出现新的技术或科学革命,并造成巨大破坏时,人们经常会问,人们很好奇。就像“为什么有人会在 10 年内做到这一点?”如果你回顾几个世纪的历史,就会发现,只要有用,就会越来越便宜,越来越容易使用。它会大量涌现,成为人们的默认选择。然后,下一场革命来临,彻底颠覆一切。我敢打赌,每一个浏览器、搜索引擎和应用程序都会被某种对话式界面、某种生成式界面所代表。三五年后,你所体验到的用户界面将由 LLM 自动生成,这将成为默认设置。他们将代表品牌、企业、有影响力的人、名人、学者、活动家和组织,就像社会中的每一个利益相关者在过去最终都会获得一个播客、建立一个网站、撰写一篇博客、也许建立一个应用程序或使用电话一样。

技术革命产生了一种新的界面,彻底改变了事物的分布方式。有些组织适应得非常快,一跃而上,改变了他们的业务和组织,有些则不然。会有一个调整期。到 2030 年,我们回过头来看,就会发现,“哦,那真是一个真正的拐点,因为这些对话式人工智能确实是我们进行这些互动的主要方式”。所以,你说得完全正确。品牌和企业将利用人工智能与你的个人伴侣人工智能对话,因为我不太喜欢这样的购物方式。有些人喜欢,他们会做那种直接面对消费者的浏览体验。很多人都不喜欢这样做,而且这样做实际上超级令人沮丧、艰难和缓慢。

因此,越来越多的人开始与自己的人工智能伙伴合作,让他们成为自己的界面,与自己谈判,寻找好机会,并根据自己的具体情况进行调整。这将是一个更高效的协议,因为人工智能可以超实时地与人工智能对话。顺便说一句,我们不要自欺欺人。今天,我们已经在开放的网络上实现了这一点。我们可以在广告空间的买卖双方或搜索排名算法之间进行幕后实时谈判。因此,人工智能市场已经存在。只是没有明确地用语言表现出来。它在矢量空间中运行。

NP:这正是我好奇的地方。自然语言是范式的转变。我认为它非常强大。我不认为这一点已经表达得很清楚,但下一种计算形式本质上是以自然语言为基础的,我只需与计算机对话,它就会去做一些事情,因为它能听懂我的话,这种理念非常强大,我对此深信不疑

对我来说,如何在后端实现这一点仍是未知数,对吗?我要买一个三明治,就必须有公司为我提供三明治,而他们如何与我的人工智能对话,如何维持业务似乎非常具有挑战性。现在,这些公司之所以有生意,是因为他们可以把我手机上的广告位卖给其他真正做三明治的公司。他们有追加销售。这些公司有无数种不同的赚钱方式。如果他们把自己抽象成他们的人工智能与我的人工智能对话,然后说“好吧,这是个三明治”,而我剥夺了他们所有其他的盈利机会,我不确定这个生态系统能否保持相关性,甚至能否存活下去。

MS:我不太确定。我的意思是,制作三明治的人工智能仍然会想要推销自己,具有说服力、娱乐性,并为消费者制作内容,对吗?这并不是说它完全脱媒和断开连接。品牌广告和展示广告仍然具有超强的相关性,三明治制作的人工智能也会以赞助的方式出现在您的个人人工智能环境中。因此,关键词竞价、为存在付费、为知名度付费等核心框架依然存在。排名仍将存在——这在某种程度上仍有意义。只是,你将由一个个人工智能伙伴作为对话者或谈判者,这两个人工智能伙伴将用自然语言进行交流,而这正是我们想要的。我们希望能够回过头来审核这次谈判,检查错误出在哪里,事后看看是否真的是个好价格,等等。

NP:你经营着 MSN,你在微软显然也有同行在经营其他类型的社交网络和其他类型的信息产品。我看到大量的人工智能“泔水”正在扼杀其中的一些网络。我在 Facebook 上搜索了“面条耶稣”,我看到了奇点的另一面,我的朋友。我们已经讨论过如何判断高质量,答案是“我一看就知道”。但是,如果你运行这些网络,你面对的是一群正在说话的 AI 智能体或 TikTok 上的人工智能影响者,你能有效地给这些东西贴标签吗?你能让用户只能看到其他人的东西吗?

MS:当然可以。这就需要平台的身份管理系统发生转变,而这种转变有利有弊。你当然可以分辨出哪些账号来自人类,哪些是人工智能生成的。在某种程度上,我认为可以对经过验证的人类内容或经过验证的人工智能内容进行数字水印和签名。然后,在某种程度上,可以对合成内容进行检测,因为这确实有一个特定的签名。从长远来看,我不认为这是一种防御手段。我认为,这将是一场完美逼真、质量极高的“猫捉老鼠”游戏,就像几十年来在安全、隐私和信息领域一直存在的情况一样。因此,我预计这种情况会继续下去。这将变得更加困难,更加细致入微,但这是事物发展的自然轨迹。

NP:经营 LinkedIn 的人或者 MSN 的人是否会说:“这是一个我们无法阻止的问题”?我们需要确保这里的人工智能内容不会太多,因为现在还不够好。一英里外我就能看出来。我看到了这些要点。我觉得有人用 ChatGPT 做了这个。我都不想看了。这是你现在面临的问题,还是未来的问题?

MS:我认为是未来的问题,但我要说的是,我们人类是行为主义者,对吗?我们观察其他人类的产出,然后根据信息的质量和我们自己的评估来评估和解读信任。是否准确?是否可靠?这个人是否一直说到做到?因此,我们可以观察他们的行动。而不是自省:为什么会发生这种情况?为什么这个神经网络会产生这样的输出?这个人为什么会得出这样的结论?这其实是一个很重要的区别,因为我认为很多纯粹主义者都有点固执于对为什么会产生产出的因果解释,而不是更多的观察评估,“它有用吗?它能重复做同样的事情吗?”这就是信任的驱动力。

从这个意义上讲,我确实认为劣质内容是可以被检测出来的,或者说故意歪曲事实或误导的人工智能内容是可以被检测出来的,因为我认为我们会有更好的模型。

https://www.theverge.com/24314821/microsoft-ai-ceo-mustafa-suleyman-google-deepmind-openai-inflection-agi-decoder-podcast

整理:李雯靖

如需转载或投稿,请直接在公众号内留言