西风 衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

“Nah, f**k that.”

扎克伯格忍不住爆了一句粗口——就在刚刚结束的SIGGRAPH 2024与英伟达老黄的对谈过程中。

为啥?简单来说,只要一提封闭的、不开源的,小扎就很生气。

打开网易新闻 查看精彩图片

就在几天前,小扎带领的Meta发布了大模型Llama 3.1 ,首次达成“最强开源模型=最强模型”成就。并且,因为开源,用户可以访问、修改和分发源代码。

这次和老黄的对话中,小扎承认,不停搞开源模型,是一种自己偏好上的“自私”。

但更久远地来看,他相信有一天,每家公司都会拥有自己的AI——就像大伙儿拥有自己的社交媒体资料一样。

黄仁勋院士听了表示很赞赏,还夸Llama 2“可能是去年AI领域最大的盛举”。小扎反手一个商业互吹:不,我认为是H100

在两人亲切友好(?)地交流声中,小扎送了老黄新衣服:一件黑色羊皮夹克。

要知道,老黄一直穿着的皮衣,是他老婆买给他的。

皮衣黄还是从前那个皮衣黄,但皮衣不是从前那个皮衣了

打开网易新闻 查看精彩图片

但,细心的你一定发现了,小扎的博文中提到,他俩激情交流的部分,不只有开源。

还有AI Agent和最近火爆全球的智能眼镜

而且,俩人都对下一代计算充满希望。

Meta正式发布AI Studio,允许用户构建具有自定义个性的虚拟角色和Chatbot。

英伟达更是当好了勤务兵,宣布正式发布NIM(Nvidia inference micro ),一个软件包,适用于AI模型,可以用来解决将AI用于特定目的所需的许多后勤问题。

俩人更是频频爆金句:

  • Llama 4及以后的模型体验将不再像简单的聊天机器人似的来回对话。
  • 即使现在基础模型进展停止了,目前为止构建的所有东西够我们5年产品创新。
  • 如果我知道成功需要这么长时间……我会像你一样辍学,提前开始。
  • 坦白说,开源有部分原因是我们比其他一些技术公司晚,当我们建成这些设施时,已经不再具竞争优势了。
  • 现在我们基本上进入了软件3.0。

本文中,我们在不改变原意的基础上编译了小扎和老黄的对谈。

并且在最后介绍了英伟达的一系列新动态,只对英伟达感兴趣的小伙伴们,可以直接拉到最后捕获需要的信息~

打开网易新闻 查看精彩图片

对话实录

对话实录

老黄:我们都使用来自Meta的PyTorch,Meta在计算机视觉、语言模型方面也做了很多工作……我的第一个问题是,你怎么看待今天Meta在生成式AI上的进步?以及如何应用它来增强运营或引入新功能?

小扎:围绕生成式AI的所有内容都是一场有趣的革命,我认为最终它将以有趣的方式改变我们所有的产品。

你可以看看我们现在已有的一些产品线。像是Feed、Instagram、Facebook,它们已经从最初仅是一个连接朋友的工具,发展到现在的样子。

在这个过程中,内容排序始终非常重要。比如你的朋友有非常重要的事,这种信息你肯定希望它显示在Feed的顶部。

过去的几年情况已经有了变化,更多内容来自不同公共渠道。推荐系统非常重要,因为现在不仅仅是来自朋友的几百或几千个帖子,而是数百万的内容。这变成了一个非常有趣的推荐问题。

随着生成式AI的发展,我认为我们很快将进入一个新阶段。

在这个阶段中,你在Instagram上看到的大部分内容不仅是基于你的兴趣推荐的,而且不依赖于你是否关注了发布者。

我认为未来很多东西也将由这些工具创建,部分内容由创作者使用这些工具创作,另一部分可能会即时为你生成,或通过综合世界各地不同的信息合成。

这只是我们业务将如何演变的一个例子,而这种演变已经持续了20年。

我觉得很少有人意识到,世界上最大的计算系统之一是推荐系统

这是一个完全不同的路径,并非人们常谈论的生成式AI的热点。但我认为,就像所有的Transformer架构一样,它正类似于逐步构建越来越通用的东西,将非结构化数据嵌入到特征中。

我的意思是,过去你可能针对每种类型的内容都有一个不同的模型,我们曾经分别使用两个模型,一个用于推荐短视频,另一个用于推荐长视频。我们通过一些产品调整,整合了这些功能来避免在同一平台上显示重复内容。

随着我们不断开发更通用的推荐模型,涵盖更广泛的内容,推荐效果也越来越好。

我认为这部分得益于内容的经济效益和流通性,通过从更广泛的内容池中抽取,我们避免了从分散的来源抽取内容时的效率损失。

随着这些模型变得更加庞大和通用,它们的性能也在不断提升。

我梦想有一天,可以将像Facebook或Instagram这样的平台通过一个统一的AI模型来管理。

这个模型将整合所有不同类型的内容和系统,不仅能展示你今天想看的有趣内容,还能帮助你长期建立和扩展你的社交网络,比如推荐你可能认识的人或你可能想关注的账户。

打开网易新闻 查看精彩图片

老黄:因此,人们总是对AI在你们社区的深入应用感兴趣。你们已经建立了GPU基础设施,并长期运行大型推荐系统。

现在生成式AI真正酷的地方在于,这些天当我使用WhatsApp时,我感觉我在与WhatsApp合作,我喜欢这种感觉。

我坐在那里打字,它会随着我的输入生成图像。我回去修改我的用词,它又会生成其它图像,生成的图像看起来相当不错。然后现在你还可以在里面加载我的照片。

小扎:我认为生成式AI一方面将会为我们所有长期使用的工作流程和产品带来一次大的升级,另一方面它还将催生许多全新的创造。

Meta AI拥有一个可以帮助你处理不同任务的AI助手的想法,它将极具创造性,而且非常通用。随着时间的推移,它将能够回答任何问题。

当我们从Llama 3系列升级到Llama 4及以后的模型时,我认为这种体验将不再像简单的聊天机器人那样,你给它一个提示它就回应,然后你再给一个提示它再回应,就这样来回对话。

而是演变为你给它一个意图,它可以在多个时间框架上进行操作。比如其中一些事会启动计算作业,可能需要数周或数月,然后它回来给你结果,就像世界上发生了什么事一样。我认为这将是非常强大的,所以我很激动。

打开网易新闻 查看精彩图片

老黄:正如你所说,现在的AI就是简单的问答。但当我们人类面对一个任务时,我们会思考多个选项,甚至构建一个决策树,在脑中模拟不同的决策,我们在做规划。

而未来人工智能也会做类似的事情。我对你提到的创作者AI很兴奋。坦白说,我觉得这是个很棒的点子。

跟大家介绍一下创作者AI和AI Studio。

小扎:其实,这是我们正在推广的东西。我们不认为只有一种AI模型就足够了。这是一些其他公司的做法,他们好像在构建一个中央Agent。

我们会有Meta AI助手供你使用,但我们希望帮助所有使用我们产品的人可以为自己创建Agent。无论是平台上的创作者还是小企业,我们最终希望能迅速整合所有内容,建立一个商业Agent帮助他们与客户互动,进行销售等。

我们现在推出的一个工具叫做AI Studio,它是一套工具,最终能使每个创作者都能构建一个类似于他们自己的AI Agent或助手,供他们在社区互动。

有个问题是,如果你是一个创作者,你想要更多地与你的社区互动,但你的时间有限。同样,你的社区也想与你互动,但这很难。因此,最好的解决方案是让人们创造这些Agent,训练它们根据你的风格以你希望的方式展现你自己

我认为未来人们将会为各种目的创建自己的AI Agent。有些Agent将被定制用于完成特定的实用任务,有些可能是为了娱乐,创造一些有趣或者略带幽默感的内容,我们可能不会将其直接整合进Meta AI助手中,但我认为人们对此很感兴趣。

我们看到的一个有趣的用例是人们使用这些Agent来支持社交互动。这有点让我惊讶,因为Meta AI已成为人们角色扮演复杂社交场景的主要工具之一。

无论是职场晋升、薪酬谈判,还是与朋友或伴侣的纠纷,这些Agent提供了一个无偏见的环境,使人们可以模拟对话,探索可能的对话走向并获得反馈。

而且许多人不仅想与常规的AI Agent互动,无论是Meta AI助手还是ChatGPT,他们希望能创造属于自己的个性化Agent,这正是我们AI Studio的目标方向。

我们认为,与一个单一的大型AI互动不是唯一的选择,一个具有多样化Agent的世界会更加精彩有趣。

老黄:我觉得如果你是艺术家,这会非常酷,你有自己独特的风格和作品集。现在,这些可以将其整合成一个AI模型,可以引导它根据你的艺术风格创作,甚至可以提供一件艺术作品作为绘画灵感,让它基于这些为你创造新的作品。

你可以访问我的AI,就像访问我的机器人一样。未来可能每家餐厅、每个网站都会拥有这样的AI。

小扎:是的,我认为在未来每个企业都会有一个与客户互动的AI。商业版本会有更多的集成,我们仍然处于相当早期的alpha阶段。

老黄:我可以使用AI Studio在我的图库上微调吗?

小扎:是的,我们会做到的。

老黄:那我可以将我写过的所有东西都上传上去,用它作为我的个人资料库。每次我再次使用它时,它会重新加载记忆,它能记得上次我们停留的地方。

然后我们可以继续对话,就像从未中断过一样。

小扎:像任何产品一样,它会随着时间的推移而改进,理想化版本不仅仅是针对文本。我不认为这些事情还很遥远,飞轮正在迅速旋转,还有很多新东西需要构建。

即使现在基础模型的进展停止了,我认为我们还有五年的产品创新时间够整个行业弄清楚如何最有效地使用目前为止构建的所有东西。

但实际上,我认为基础模型和基本研究的进展正在加速,这是一个相当疯狂的时期。

你知道,你让这一切发生了。

老黄:谢谢,我们作为CEO是娇嫩的花朵,我们需要很多支持。

打开网易新闻 查看精彩图片

小扎:到目前为止,我们已经历经了不少风霜。我认为我们是行业中资历最久的两位创始人之一。

老黄:这是事实。

小扎:你的头发变白了,我的变长了。

老黄:我的变成灰色了,你的变卷发了,What’s up?

如果我知道成功需要这么长时间……

小扎:你永远不会开始?

老黄:不,我会像你一样辍学,提前开始。你有12年的领先,真不错。

老黄:我喜欢你的愿景,每个人都可以有AI,每个企业都可以有AI。在我们公司,我希望每个工程师和每个软件开发人员都有一个AI。所以当你推出Llama时,是开源的,我认为这很棒。这就是我为什么认为Llama 2可能是去年最大的AI事件

小扎我认为是H100。

老黄:谢谢。我之所以说这是最大的事件,是因为它当时激活了每个公司、行业,突然间,都在构建人工智能。每个研究员都有可能重新接触AI,因为他们有了一个起点。

然后现在Llama 3.1也发布了,我们正在一起努力部署3.1。所以,你的开源理念从何而来?

小扎:坦白说,部分原因是我们比其他一些技术公司晚一些开始构建分布式计算基础设施和数据中心。

因此,当我们建成这些设施时,它们已经不再具有竞争优势了。那么我们索性将其开源,从而在周围的生态系统中获益。

我们有许多类似的项目,其中最大的一个可能是Open Compute项目,我们公开了我们的服务器设计、网络设计乃至数据中心设计。

通过使这些设计成为某种行业标准,所有供应链基本上都围绕它进行组织,这带来了为所有人节省资金的好处。通过将其开源,我们基本上节省了数十亿美元的成本。

Open Compute项目也使得我们为一个数据中心设计的Nvidia HGX在每一个数据中心都能运行。

所以,那是一次极好的经历。之后,我们也在许多基础设施工具上采取了类似的措施,比如React、PyTorch。当Llama出现时,我们已经对AI模型开放使用持有特别积极的态度了。

我有点希望在下一代计算中,回归到开放生态系统获胜并再次成为领先者的状态,总会有封闭的和开放的生态系统,两者都有其存在的理由。

并不是我们发布的一切都是开放的,我们也做闭源的事。但我认为,总的来说对于整个行业正在构建的计算平台,如果软件是开放的,那将带来很大的价值。

以及我们在AR、VR方面的工作,我们基本上正在为混合现实构建一个开放的操作系统,就像Android或Windows一样,使其能够与许多不同的硬件公司合作,制造各种设备,我们想将生态系统恢复到那样的开放水平。

我对此非常乐观,下一代,开放系统将会获胜。

我只是想要确保我们能够接触到,这有点自私,但你知道在我建立这家公司一段时间后,未来10到15年的一件事就是,我只想确保我们能够构建我们将要构建社交体验的基础技术。

因为已经有太多的事情我试图构建,然后平台提供商告诉我“不,你不能构建那个”,在某种程度上,我只想说,“Nah, f**k that”,为了下一代,我们要确保一路构建下去。

对不起,但是让我谈论封闭平台,我会生气,所以……

打开网易新闻 查看精彩图片

△小扎的粗口被老黄人工消音“Biiii——”

老黄:我认为这是一个伟大的世界,有人致力于构建尽可能好的AI,制造它将其作为一种服务提供给世界。

同时,如果你想要构建你自己的AI,你完全有能力这么做。能够编写和使用AI的能力非常重要,我个人更喜欢不用自己制作皮夹克,更倾向于让别人为我制作。

皮革可以开源对我来说并不是一个有用的概念,但我认为拥有伟大的服务和开放服务的想法是非常好的。

你在3.1版本中所做的,提供不同规模的模型,从405B到70B到8B,这真的很棒。你可以使用更大的模型来教导这些模型,并用于合成数据生成。

虽然更大的模型更通用,但你仍然可以构建一个适合特定操作或成本效益更高的小模型。而且你构建模型的方式是透明的,拥有世界级的安全和伦理团队,我真的很喜欢这一点。

打开网易新闻 查看精彩图片

小扎:我接着上面之前被岔开的思路讲,我们正在构建它,因为我们希望它存在,并且我们希望它能够独立于某些封闭模型。

但这不仅是一个软件,围绕它的是一个生态系统。如果没有开源,它可能不会运作得很好。我们并不是出于利他主义,尽管我认为这将对生态系统有所帮助。

我们这样做是因为我们认为这将使我们正在构建的产品变得更好,通过拥有一个强大的生态系统。

老黄:有多少人为Pytorch生态系统做出了贡献。光Nvidia可能有几百人专注于使Pytorch更好、更可扩展、更高性能。

小扎:当某物成为行业标准时,其他人也会围绕它工作。这将使每个人受益,也将与我们正在构建的系统很好地配合。这只是其中一个例子,所以我认为开源战略将是一个非常好的商业策略,人们仍然不太理解这一点。

老黄:我们非常喜欢它,围绕它建立了一个生态系统。

小扎:你们真是太棒了。每次我们发布新产品,你们总是第一个发布优化让它运行的。我真的很感激。

老黄:我能说什么呢?我们有优秀的工程师。

作为一名高级管理人员,我虽然年纪大了但思维敏捷,这是CEO应该具备的素质。我认识到了一件重要的事:Llama模型的重要性。围绕它,我们建立了“AI工厂”,旨在帮助所有人构建AI。

许多公司都希望拥有自己的AI,这对他们至关重要。因为一旦将AI纳入数据循环,公司的知识就会被编码到AI中。他们不能将这个循环外包,而开源则给了他们这个机会。但问题是,他们往往不知道如何将整个过程转化为AI。

这就是我们创建“AI工厂”的原因。我们提供工具、专业知识和Llama技术,帮助他们将整个过程转化为AI服务。完成后,他们可以完全拥有这个成果。我们将输出称为NIM。客户可以下载NIM,在任何地方运行,包括本地服务器。

我们还有一个合作伙伴生态系统,包括可以运行NIM的OEM厂商,以及像Accenture这样的咨询公司,他们接受我们的培训,创建基于Llama的NIM和流程。现在,我们正在帮助全球各地的企业实现这一目标。这一切都源于Llama的开源,真是令人兴奋。

打开网易新闻 查看精彩图片

小扎:特别是帮助人们从大模型中提炼出自己的模型,这将是一个非常有价值的新趋势。就像我们讨论产品时提到的,我不认为会有一个主导性的AI Agent被所有人使用,同样,也不太可能有一个单一的模型满足所有需求。

老黄:我们有专门的芯片设计AI、软件编码AI等。我们的软件编码AI理解USD,理解Verilog,还能分析我们的错误数据库,帮助分类问题并分配给合适的工程师。每个AI都是基于Llama微调的,我们为它们设置了具体的应用范围和限制。

我认为未来每个公司的每个功能可能都会有专门的AI。

小扎:是的,未来的一个大问题是,人们会更多地使用更复杂的大模型,还是为特定用途训练自己的模型。我猜测会出现大量不同的专用模型。

老黄:因为工程师的时间非常宝贵。目前,我们使用性能优化的405B模型。这个模型太大,无法装入单个GPU,这就是为什么MVLink性能如此重要。我们通过MVLink Switch连接所有GPU,使它们能高效运行405B模型。

对我们来说,获得最佳结果比节省几分钱更重要。我们希望为工程师提供最高质量的工具。

小扎:确实,405B的推理成本约为GPT-4模型的一半,已经相当不错了。对于需要在设备上运行或需要更小模型的情况,人们可以将其进行蒸馏,这又是一个全新的服务领域。

老黄:想象一下,我们用于芯片设计的AI每小时可能只需10美元,而且可以被多个工程师共享。考虑到我们付给工程师的高薪,每小时几美元就能大幅提升他们的工作效率,这是非常有价值的投资。

小扎:Yeah,这一点你不用说服我。

老黄:如果还没有使用AI,现在就开始吧。

让我们谈谈下一波技术浪潮。我特别欣赏你们在计算机视觉方面的工作,比如我们经常使用的“分割一切”模型。我们现在正在训练视频AI模型,以更好地理解世界,为机器人技术和工业数字化建模,并将这些模型整合到Omniverse中。

这样我们就能更好地模拟物理世界,提升虚拟环境中机器人的表现。

你们Meta的Ray-Ban智能眼镜项目,将AI引入现实世界的愿景非常有趣。能否详细介绍一下这方面的情况?

小扎:你提到的”分割一切”模型,我们实际上正在这次SIGGRAPH大会上展示它的下一个版本“分割一切2”。它现在更快,而且可以处理视频了

打开网易新闻 查看精彩图片

这会有很多有趣的效果。由于它将是开放的,还会有更多严肃的应用场景出现在各行各业。科学家们用这个来研究珊瑚礁、自然栖息地以及景观的演变等。并且是零样本学习,能够与之互动并告诉它你想跟踪什么,这是相当酷的研究。

老黄:例如,比如你有一个仓库,里面有很多摄像头,仓库AI在监视着发生的一切。假设一堆箱子倒了,或者有人在地上洒了水,或者即将发生任何事故,AI就能识别出来生成文本,发送给人求助,这是使用它的一种方式。

它不是记录所有内容,只记录重要的事情,因为它理解它在看什么。

现在,除了Ray-Ban智能眼镜之外,你们还在做什么?

小扎:当我们考虑下一代计算平台时,我们将其分为混合现实头戴设备和智能眼镜。我认为人们更容易理解并接受智能眼镜,因为现在世界上有超过10亿人戴眼镜,这些眼镜最终都会升级为智能眼镜,这将是一个非常大的市场。

VR/MR头戴设备有些人觉得它适合游戏或其它用途,有些人则不然。我的观点是,这两种设备都会存在。

我认为智能眼镜将会成为类似于移动电话、始终在线的下一代计算平台;而混合现实头戴设备则更像是你的工作站或游戏机,当你坐下来进行更沉浸式的体验并需要更多计算能力时使用。毕竟眼镜很小,会有很多限制,就像你不能在手机上进行同样水平的计算一样。

老黄:它恰好出现在所有这些生成式AI突破发生的时候。

小扎:是的,对于智能眼镜,我们从两个不同的方向来解决这个问题。一方面,我们一直在构建我们认为是理想的全息AR眼镜所需的技术。我们正在做所有眼镜工作所需的东西。

它看起来像眼镜,但与你现在戴的眼镜相比还是有很大差距。即使是我们制造的Ray-Ban,也无法将全息AR所需的所有技术都装进去。在接下来的几年里,我认为我们会越来越接近,它仍然会很贵,但我认为那将成为一种产品。

打开网易新闻 查看精彩图片

△Meta Ray-Ban智能眼镜

从另一个角度来看这个问题,那就是通过与世界上最好的眼镜制造商Essilor Luxottica合作,从好看的眼镜开始。他们制造了很多大品牌。

老黄眼镜界的Nvidia

小扎:我认为他们可能会喜欢这个比喻,谁会不喜欢呢?我们一直在与他们合作Ray-Ban,我们现在是第二代,目标是让我们将形状限制在很好看的范围内,在此基础上,尽可能多地加入技术。

现在我们有摄像头传感器,所以你可以拍照和录像,实际上可以直播到Instagram,也可以在WhatsApp上进行视频通话,并向对方传输你所看到的内容。它还有麦克风和扬声器,扬声器是开放式的,很多人觉得它比耳塞更舒服。你可以听音乐,可以用它来接电话。

但后来发现,这个传感器正是与AI对话所需要的,这有点意外。

如果你五年前问我,我们会先实现全息AR还是AI,我可能会说全息AR。

我的意思是,这似乎就是显示技术的进展,在所有虚拟混合现实方面,构建新的显示堆栈,我们正在朝着那个方向不断进步。

然后LLM迎来突破。我们现在有了非常高质量的AI,而且在全息AR出现之前就以非常快的速度在改进,这是一种我没有预料到的逆转。

幸运的是,我们处于有利位置,因为我们一直在开发所有这些不同的产品。但我认为最终你会看到一系列不同的眼镜产品,有不同的价位,内置不同水平的技术。根据我们现在对Ray-Ban Meta的观察,我猜测在300美元价位的无显示屏AI眼镜将成为一个非常大的产品,最终会有数千万或数亿人拥有。

老黄:所以你将拥有超级互动AI,可以与之对话。你刚才展示的视觉语言理解能力,有实时翻译,你可以用一种语言跟我说话,我用另一种语言听到。

小扎:显示屏也会很棒,但它会给眼镜增加一些重量,也会使它们更贵。所以我认为会有很多人想要全息显示屏。但也会有很多人希望最终能够拥有真正轻薄的眼镜。

我们离能够进行虚拟会议的未来不远了,就像我人虽不在这里,但我的非常逼真的全息影像在,我们可以一起工作。

最终会达到那个程度,眼镜中有更薄的也有厚的,有各种风格。我认为要在你现在戴的这种眼镜中实现全息功能还需要一段时间,但在一副稍厚的眼镜中实现这一点并不遥远。

成为一个时尚影响者,这样我就可以在眼镜上市之前打出影响。

老黄:你的时尚影响力如何?效果如何?

小扎:还在早期阶段(doge)。

我觉得如果未来业务的一大部分是制造人们会佩戴的时尚眼镜,那可能我要多加注意。我将不得不告别那个每天穿同样衣服的我。

这也是关于眼镜的事,我认为它与手表或手机不同。人们真的不想都看起来一样,所以我认为它是一个平台,回到我们之前讨论的主题,它会倾向于成为一个开放的生态系统,因为人们对形状和风格的需求多样性将是巨大的。不是每个人都想戴上别人设计的那种眼镜,我不认为这种做法会成功。

老黄:我觉得你说得对。我们正生活在一个整个计算堆栈被重新发明的时代,这真是不可思议,现在我们基本上进入了软件3.0。

从通用计算到这种生成式神经网络处理的计算方式,我们现在可以开发的能力和应用在过去是不可想象的。

生成式AI,我不记得有任何其它技术能以如此快的速度影响消费者、企业、行业和科学,它能够跨越所有这些不同的领域,从气候到生物再到物理,生成式AI都处于这种根本性转变的中心。除此之外,还有你所谈论的这些东西。

有人早些时候问我,是否会有一个“Jensen AI”?这正是你所说的创意AI,我们可以建立自己的AI。我会把我写过的所有东西都装进去,用我回答问题的方式对它进行微调。希望随着时间的推移,不断使用的积累会让它成为一个非常棒的助手和伙伴……

所以现在我们可以做很多事情,与你合作真的很棒,我知道建立一家公司并不容易,你将公司从桌面转向移动,再到VR、AI。Nvidia自己也经历了多次转型,我非常知道这有多难。你知道,我们两个多年来都被狠狠地教训过很多次,但这就是要成为先驱和创新所需要付出的。

小扎:我认为对你们来说也是一样的。

我们经历了一段时期,每个人都说“不,一切都会转向这些设备,只需要超级便宜的计算”,而你们只是继续坚持“不,实际上你会想要这些可以并行的大系统”,我们走了另一条路。

老黄:是的,我们现在不是制造越来越小的设备,而是制造尽可能大的计算机。

小扎:有一段时间不太时髦。

老黄:非常不时髦,但现在它很酷。

(属于老黄的)One More Thing

(属于老黄的)One More Thing

就在老黄小扎对话的同一天,英伟达有了一系列新动作,

比如,正式发布NIMs(Nvidia inference micro services),一个软件包,能解决特定目的下使用AI时会遇到的很多后勤问题。

这玩意儿3月的时候老黄就浅浅介绍过了,它通过打包算法、系统和运行时优化并添加行业标准 API 来简化AI模型部署流程,“推动企业大规模部署AI模型”。

打开网易新闻 查看精彩图片

比如,宣布和抱抱脸合作,推出“推理即服务”。

开发者可以通过托管,把抱抱脸上的开源AI模型快速制作并部署到生产中。

打开网易新闻 查看精彩图片

再比如,推出fVDB,利用现实世界的3D数据,打造空间智能。

打开网易新闻 查看精彩图片

再再比如,推出Isaac Lab,一个用于机器人学习的开源模块化框架。

它可以解决传统训练方法对机器人学习技能的限制,用来开发、训练和构建下一代人形机器人。

打开网易新闻 查看精彩图片

一边对谈传递观点,一边kuku发新产品。

不愧是老黄,啥也没落下。

参考链接:
[1]https://www.nvidia.com/en-us/events/siggraph/
[2]https://www.threads.net/@zuck/post/C-BoS7lM8sH