打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

近日,Google DeepMind CEO Demis Hassabis 接受了YC CEO的访谈。本次对话梳理了AGI 的技术路径, AI Agent 的演进路径、模型蒸馏与边缘计算的极限、长文本窗口与海马体记忆机制的本质区别,以及 AI在药物研发及前沿科学领域的应用。Demis Hassabis 在对话中还阐述了如何利用强化学习与搜索技术解决科学领域的组合搜索难题。

Demis Hassabis 指出,实现 AGI 的核心在于构建一个能够主动解决问题的活跃系统。他认为 AGI 的最终架构已掌握了约 50% 的核心组件,包括大规模预训练、强化学习及思维链推理,但在持续学习、长期推理和记忆一致性方面仍需一两次关键的突破。

他指出,目前的超长上下文窗口属于一种暴力存储方式,面临极高的检索成本和精度挑战。他主张借鉴神经科学中海马体的运作机制,通过经验回放和情景记忆巩固,将新知识整合进现有的知识库,而非单纯依赖增加Token 数量。

Demis Hassabis 指出,目前中国在开源模型领域的表现非常强劲,在部分维度甚至处于领先地位。他预测,AGI 有望在 2030 年左右实现。针对深科技领域,他预计未来 10 年内人类将实现完整的虚拟细胞模拟,从而彻底改变药物研发模式。他建议开发者在开启长期研发之旅时,必须预判项目在 2030 年 AGI 出现时如何与其集成,并利用通用 AI 作为调度中枢来调用专业化的工具系统。

01

要实现 AGI,目前根本性缺失的是什么?

当前AI 架构已包含大规模预训练、强化学习及思维链等成熟组件,但要实现 AGI,目前根本性缺失的是什么?考虑到 AI 目前是无状态的且缺乏持续学习能力,开发者应如何引导 AI 走向自主执行?

Demis Hassabis:刚才提到的那些组件肯定会成为AGI 最终架构的一部分。这些技术已经发展到非常成熟的阶段,其能力也得到了充分验证。我不认为几年后我们会发现这是一条死胡同,这不符合逻辑。但在我们已知有效的核心技术之上,可能还缺少一两个关键环节。

持续学习、长期推理和记忆的某些方面仍未解决,如何让 AI 在各项任务中保持更高的一致性也是挑战。这些都是 AGI 的必要条件。现有的技术或许可以通过增量创新来解决这些问题,但也可能还需要一两个重大的思想突破。即便存在这种突破,我认为也不会超过一两个。我猜测这种可能性大约是 50%,因此 Google DeepMind 正在这两个方向上同步推进。

(关于持续学习)这非常有趣。缺乏持续学习能力是阻碍 AI Agent 独立完成复杂任务的主要瓶颈。虽然它们现在能辅助完成部分环节,但由于无法很好地适应特定上下文,还无法做到真正的自动执行。AI 必须学会理解并适应用户所处的具体环境,攻克这一点,我们才能真正走向通用智能。

02

上下文窗口不是越大越好,检索成本与精度平衡是关键

在AI Agent 系统中,目前的持续学习大多是权宜之计,而人类大脑通过海马体在睡眠期间整合知识。从神经科学角度看,当前的百万级 Token 上下文窗口是否已经足够?

Demis Hassabis:梦境循环确实非常出色,我们曾通过情景记忆的巩固来思考这一问题。这正是我博士研究的课题,即海马体如何运作并将新知识顺畅地整合进现有的知识库中。大脑在这方面表现卓越,它在睡眠期间,特别是快速眼动睡眠阶段,通过回放重要片段来进行学习。

事实上,我们最早的 Atari 程序 DQN 能够精通游戏,关键之一就是采用了经验回放。我们从神经科学中借鉴了这一机制,通过多次回放成功的轨迹让 AI 学习。那是 2013 年,处于 AI 的早期阶段,这一突破至关重要。我同意你的看法,现在的做法确实有些像打补丁,比如把所有信息都塞进上下文窗口,但这并不够理想。

虽然我们研究的是机器而非生物大脑,理论上可以拥有数百万甚至上千万 Token 的上下文空间,且能达到完美存储,但检索并精准定位与当前决策相关的关键信息,依然存在巨大的成本。即便存储不再是问题,这种检索成本也不容忽视。在记忆等领域仍有巨大的创新空间。

对于大多数用途来说确实够用了。如果将上下文窗口类比为工作记忆,人类通常只能同时处理几个到十几个数字,平均仅为七个,而我们现在拥有一百万甚至一千万的窗口。但问题在于,我们正试图在其中存储所有信息,包括不重要的甚至错误的信息,这种暴力存储方式并不理想。如果你尝试处理实时视频并简单地记录所有 Token,一百万 Token 其实只能覆盖约 20 分钟的内容。若要让 AI 理解你生活中长达一两个月发生的事情,我们需要更大的容量。

03

强化学习与搜索

DeepMind 历来推崇强化学习和搜索技术,这些在 Gemini 的构建中体现了多少?强化学习在当前的基础模型范式下是否被低估了?

Demis Hassabis:可能确实如此,技术发展总是波浪式前进。DeepMind 自创立伊始就致力于 AI Agent 研究,这是我们的初衷。从 Atari 系列工作到 AlphaGo,本质上都是 AI 系统,即能够自主达成目标、做出决策并制定计划的系统。起初我们选择在游戏领域开展工作使其具备可操作性,随后挑战了更复杂的《星际争霸》并开发出 AlphaStar,基本上挑战了当时所有的主流游戏。

随之而来的问题是,能否将这些 AI 泛化为世界模型或语言模型,而不仅仅是游戏模型。这就是过去几年我们工作的重心。实际上,今天领先 AI 所具备的思考模式和思维链推理,可以看作是 AlphaGo 开创性思想的某种回归。

我们当年的许多研究在今天依然极具价值,我们正以更通用、更大规模的方式重新审视这些旧想法,包括蒙特卡洛树搜索(Monte Carlo tree search)以及在现有基础之上增强强化学习的其他手段。AlphaGo 和 AlphaZero 的许多理念与当前的基础模型高度相关,这也是未来几年技术进步的主要方向。

04

小模型正在逼近顶级 AI 的智能水平

虽然必须通过构建最强大的AI 才能拥有前沿能力,但我们也看到蒸馏技术卓有成效,Flash 系列 AI 性能达到了前沿 AI 的 95% 而成本仅为十分之一。我好奇这些小 AI 实际上能有多聪明,蒸馏过程是否存在极限,一个 50B 或 400B 参数的 AI 能达到今天顶级 AI 的智能水平吗?

Demis Hassabis:这是我们的核心优势之一。虽然必须通过构建最强大的AI 才能拥有前沿能力,但我们也非常擅长迅速将这些能力蒸馏并压缩进更小的 AI 中。蒸馏工艺是由我们团队发明的,我们至今仍保持着世界领先水平。这种需求也源于 Alphabet 庞大的服务规模。无论是带有 AI 概览功能的搜索、Gemini 应用,还是谷歌地图、YouTube 等产品,都集成了 Gemini 相关的技术。我们要服务数十亿用户,拥有十几个用户量过十亿的产品。这意味着系统必须极速、高效、廉价且低延迟,这种压力促使我们将 Flash 甚至更小的 Flash-Lite AI 做得极其高效。希望这些成果对你们的工作负载非常有用。

(关于小模型的极限)我不认为目前已经触及了任何信息限制。或许未来某天会存在无法逾越的信息密度上限,但目前的假设是,在前沿 AI 发布一年后,你会在非常微小的边缘 AI 中拥有它们。我们在 Gemma 2 系列 AI 中也展示了这种潜力,其性能在同尺寸下非常出色。这归功于蒸馏技术以及对小 AI 效率的极致追求。从理论上讲,我们距离所谓的极限还很远。

这非常重要。现在工程师的工作效率能达到半年前的500 到 1000 倍。有人提到,现在的开发者一个人就能抵得上 2000 年代 1000 个 Alphabet 工程师的工作量。

Demis Hassabis:这非常令人振奋。小AI 有很多用途,除了成本优势外,速度也是关键。在编程等协作场景中,更快的响应意味着更高效的迭代。即使 AI 不是最顶尖的,只要达到 90% 或 95% 的水平就足够了,迭代速度带来的收益远超性能上的微小折损。另一个重点是边缘计算,这既是为了效率,也是为了隐私和安全。处理私人信息的设备或家用机器人需要强大且高效的本地 AI,它们平时在本地处理视听流,只有在特定情况下才向云端的前沿 AI 请求协作。这会是一个非常理想的最终状态。

05

AI Agent 的真实瓶颈

关于推理,AI 现在可以做思维链,但在一些聪明大学生看来很简单的任务上仍会失败。哪些环节需要改变,你对推理的进展有何预期?AI Agent 目前非常火热,甚至有人认为存在炒作,根据 Google DeepMind 的内部研究,AI Agent 的真实能力与外界的期待相比处于什么位置?

Demis Hassabis:思考范式仍有巨大的创新空间。目前的做法还比较初级,带有某种暴力计算的色彩。未来的方向可能包括对思维链的实时监控,甚至在思考中途进行干预。我有时觉得,现在的AI,包括我们和竞争对手的,往往会陷入过度思考或逻辑循环。

比如我尝试用 Gemini 下棋,目前所有的基础模型在策略游戏上表现都不理想。观察它们的思考轨迹非常有趣,因为棋局逻辑是可验证的。我可以很快发现它是否在偏离方向。我们发现,AI 有时会意识到某个走法是失误,但因为它找不到更好的方案,最终还是会选择那个错误的走法。在精密推理系统中,这种现象是不该出现的。虽然存在这些显著差距,但或许只需一两次技术微调就能解决。这种参差不齐的智能现象,即一方面能解决国际数学奥林匹克(IMO)的金牌难题,另一方面却会在简单的数学或逻辑题上翻车,说明 AI 对自身思考过程缺乏某种内省机制。

(关于 AI Agent 的能力)我同意你的看法,一切才刚刚开始。实现 AGI 的关键在于拥有能主动解决问题的活跃系统,这一点我们始终坚信。AI Agent 正是通往这一目标的路径。我们都在探索如何更好地利用这项技术,你在个人实验中也处于领先地位。大家都在思考如何将 AI 合并到工作流程中,使其从一个辅助功能变为基础核心。我的印象是,目前大家都在进行各种实验,直到最近几个月,才真正挖掘出具有实际价值的场景。技术正在跨越从漂亮演示到真正提升效率的门槛。我也注意到,有人尝试让几十个 AI Agent 同时运行几十小时,但目前的产出似乎还不足以抵消其投入,不过这一天终会到来。

我们仍处于实验阶段。目前还没有出现哪款榜首级的游戏是完全靠凭感觉编码生成的。虽然我能在半小时内用 AI 做出一个《主题公园》的雏形,这在以前需要半年时间,但这确实令人震惊。真正伟大的作品仍需要人类的匠心、灵魂和品位。这说明技术尚未完全成熟。如果技术真的到位了,我们应该已经看到年轻人仅凭 AI 就开发出销量千万级的热门游戏。目前某种关键要素依然缺失,或许是流程,也可能是工具。你们作为一线的开发者可能比我更清楚。我期待在未来 6 到 12 个月内看到那些真正释放全部价值的成果。

06

创造力、谷歌开源策略与多模态优势

关于AI 的自主性,我们是否更可能先看到人们在 AI 加持下实现千倍效率提升,之后自动化程度才会提高?转向开源和开放权重话题,最近发布的 Gemma 让高性能 AI 能够本地运行,这是否意味着 AI 将掌握在用户手中而非云端,这会改变开发者利用模型构建应用的方式吗?此外,谷歌 Gemini 天生就是多模态的,在上下文深度、工具调用以及直接语音交互方面表现出色,这背后有哪些深层考量?

Demis Hassabis: 谈到创造力,AlphaGo 的案例非常有代表性,大家都知道第二局中著名的第 37 手。对我来说,那一刻我意识到可以启动像 AlphaFold 这样的科学项目了。我们在从首尔回来的当天就开始了 AlphaFold 的研发,距今已十年。这次采访结束后,我正准备去韩国庆祝 AlphaGo 十周年。

但仅仅下出第 37 手是不够的。那一手虽然惊艳且有用,但 AI 能发明围棋吗?这才是我的目标。我想要一个能够根据高层描述发明游戏的系统。围棋的规则五分钟就能学会,却需要终身磨练才能精通,在美学上非常优雅,且能在几个小时内完成一局。我给出的高层描述应该是这些,而 AI 返回的结果应该是围棋。目前的 AI 显然还做不到这一点,我认为这说明还缺失了一些关键要素。那么答案可能就是系统并不缺失什么,只是我们使用的方式不对。现在的 AI 或许已经具备这种能力,只要有一个极具创造力的人提供动力和项目的灵魂,并能熟练掌握这些工具,达到人机合一的境界。如果像你们中的许多人那样日以继夜地钻研这些工具,并将其与深层的创造力结合,就能创造出更不可思议的作品。

(关于开源与 Gemma)谷歌一直是开源和开放科学的坚定拥护者。AlphaFold 的成果是完全免费开放的,即便到今天,我们所有的科学工作依然发表在顶级期刊上。我们致力于开发同尺寸下全球领先的模型,Gemma 就体现了这一承诺。我们很高兴看到 Gemma 在发布两周半内下载量就突破了四千万次。

我也认为开源领域拥有西方技术栈非常重要。目前全球各地的开源模型都很出色,中国目前的表现就非常强劲,在某些领域甚至处于领先地位。因此,我们认为提供 Gemma 这样在对应尺寸级别上极具竞争力的模型,对维持西方技术栈的地位至关重要。对我们来说,资源、人才和算力总是有限的,没有人能有足够的算力同时开发两个具有不同属性的最顶级模型。目前我们决定将安卓系统、智能眼镜和机器人所使用的端侧模型设为开放模型。因为一旦部署到各类硬件终端,这些模型本质上就是透明的,不如索性完全开放。我们在 Nano 尺寸级别上统一了这一战略,这在战略上也对我们非常有利。我们希望有更多开发者在其基础上进行构建。

(关于多模态优势)这是 Gemini 系列被低估的一点。我们从一开始就将其设计为多模态,这比单纯开发文本模型要难得多,但我们相信长远来看会获益。现在我们已经在世界模型构建方面看到了成果,例如在 Gemini 基础上开发的 Genie。这对机器人技术至关重要,Gemini 机器人模型就是建立在多模态基础模型之上的。Gemini 在多模态方面的强势表现让我们拥有了竞争优势。我们正将其越来越多地应用于 Waymo。设想一下,如果你携带一个数字助手进入现实世界,无论是通过手机、眼镜或其他设备,它都需要理解物理规律和你所处的物理环境。这是我们系统的强项,也是你觉得好用的原因。我们将继续保持在这些领域的绝对优势。

07

推理成本不会真正归零

推理成本正在迅速下降。如果推理近乎免费,会开启哪些可能性?这如何改变你们团队的优化方向?此外,观众中有很多生物技术领域的创始人,AlphaFold 3 已经让我们能建模更广谱的生物分子,我们距离建模完整的细胞系统还有多远?这是否属于本质上更难的另一个层级的问题?

Demis Hassabis:我不确定推理是否会真的完全免费。由于杰文斯悖论(Jevons Paradox)等因素,我们最终会耗尽所有可用的资源。你可以想象数百万个 AI Agent 组成的集群协同工作,或者单个 Agent 及其协作组进行多路径思考并集成结果。我们和在座各位一样都在尝试这些方向,这些都会消耗掉所有可用的推理能力。或许有一天成本能降到极低。如果我们通过材料科学解决了核聚变、超导体或电池技术,能源成本将趋于零,但芯片的物理制造依然存在。在未来几十年内,这仍将是瓶颈,因此我们必须高效地使用推理能力。

(关于虚拟细胞)我们在 AlphaFold 2 之后成立了 Isomorphic Labs,目前进展非常顺利。药物研发是一个复杂的系统工程,AlphaFold 只是其中一环。我们正试图通过生物化学和化学手段来设计具有特定属性的化合物。近期我们会有这方面的重大消息。我们的目标是实现完整的虚拟细胞。我在多次科学演讲中提到过,一个可以运行的虚拟细胞模拟器能让人们对其进行扰动实验,其输出应足够接近真实实验。这样我们就能跳过许多搜索步骤,并生成大量合成数据来训练其他模型,从而预测真实细胞的情况。

我认为距离实现完整的虚拟细胞大约还有 10 年。我们正从相对独立的细胞核开始着手。关键在于能否从复杂系统中选取一个切片。最终目标是建模人体,但需要选取一个细节程度合适且足够独立的系统,建模其输入和输出。细胞核就是一个非常理想的切入点。另一个挑战是数据。如果能在不破坏活细胞的前提下实现纳米级分辨率的动态成像,那将彻底改变游戏规则,把生物学问题转化为视觉处理问题。目前虽然能拍摄极高分辨率的静态图像,但这还不足以将其简化为视觉问题。这可以通过硬件驱动的方案解决,或者通过构建更好的动力系统模拟器来实现。

08

未来五年,哪个科学领域会发生最剧烈的变革?

你一直关注材料科学、药物研发、气候建模、数学等各种科学,在未来五年内,你认为哪个科学领域会发生最剧烈的变革?对于这里尝试做AI 与科学结合的创始人,你认为真正推进前沿的公司与仅仅给基础模型套个 API 的公司,本质区别在哪里?AlphaFold 是追求卓越的典型,是什么让一个领域成熟到可以实现此类突破?是否存在某种特定的模式?

Demis Hassabis:这些领域都非常令人兴奋。我从事AI 行业 30 多年,初心就是将 AI 作为科学发现的终极工具,用于探索医学和宇宙奥秘。我们最初的使命有两个步骤,第一步是解决智能问题即构建 AGI,第二步是利用它来解决其他所有问题。后来我们调整了表达方式,但核心逻辑没变。我的意思是解决科学中的根节点问题,开启全新的发现途径。AlphaFold 就是一个典范。全球有超过 300 万研究人员在使用它。制药行业的朋友告诉我,未来的药物研发几乎都离不开 AlphaFold。但这只是开始,我认为 AI 将在所有科学和工程领域提供帮助。其他领域目前正处于 AlphaFold 1 的阶段,即已经看到了非常有希望的结果,但尚未彻底攻克。未来几年,我们在材料、数学等领域会有更多突破。

(关于深科技创业)我建议大家要卡位 AI 技术的发展路径。一个巨大的机会点在于将 AI 与深科技领域结合。这种跨学科的合作,特别是涉及到原子世界的领域,在可预见的未来是没有捷径可走的。这些领域具备天然的防御性,不会因为基础模型的下一次更新而失去竞争力。我一直热爱深科技,因为真正有价值的事业从不容易。对我而言,无论发生什么,我都会研究 AI。我从很小的时候就认定,这是我能想到的最有影响力的事情。事实证明确实如此,但在当时也可能并非如此。也许我们早生了 50 年。它也是我能想到的最有趣的研究方向。因此,即使我们现在还在某个小车库里,即便项目进展还不顺利,我今天依然会钻研 AI。我还是会尝试寻找,也许我会回到学术界或类似的地方,但我总会找到某种方法继续研究它。

(关于 Alpha 项目的成功模式)等我有空的时候,我真该把这些心得写下来。但我从我们做过的所有 Alpha 项目中,特别是 AlphaGo 和 AlphaFold 中吸取的教训是,如果你能将一个问题描述为庞大的组合搜索空间,那么我们拥有的技术和我关注的问题就能发挥巨大威力。在某种程度上,搜索空间越大, AI 的优势就越明显。因为这意味着任何暴力破解或特殊案例算法都无法解决它。围棋的走法与蛋白质的构型可能性都远超宇宙中原子的总数,两者在本质上是相通的。其次,你需要一个明确的目标函数。你可以把它看作是最小化蛋白质的自由能,或者是赢得围棋比赛。你需要清晰地定义目标函数,以便 AI 能够进行爬山法优化。最后是需要足够的数据,或者是一个能生成大量分布内合成数据的模拟器。如果这些条件都具备,那么利用当今的方法,你在寻找复杂解决方案的“大海捞针”过程中就能走得很远。顺便说一句,我也以同样的方式看待药物研发。如果能找到某种化合物,它就能治愈某种疾病,而且没有副作用,只要物理定律允许,唯一的问题就是你如何以一种高效、可处理的方式找到它。我认为我们通过 AlphaGo 第一次证明了 AI 可以完成这种“大海捞针”,在那个案例中,就是找到完美的围棋下法。

09

2030年实现AGI

人类正在利用AI 探索科学假设空间,我们距离能够进行真正科学推理而非简单模式匹配的 AI 还有多远?站在当前的视角,关于在前沿领域构建,你有哪些希望自己在 25 岁时就能明白的经验?面对 2030 年的 AGI 时间表,开发者应该如何构建那些即便在 AGI 时代中途开启也依然具有价值的东西?

Demis Hassabis:我认为已经很近了。我们正在开发这类通用AI。我们有一个名为 Co-Scientist 的项目,还有像 AlphaGeometry 这样的算法,它的表现已经超越了基础版的 Gemini。显而易见,所有的前沿实验室都在进行这方面的实验。到目前为止,虽然大家都在钻研类似的问题,比如挑战比国际数学奥林匹克更难的数学题,但我还没看到任何真正意义上的重大科学发现,这只是我个人的看法。但我认为这一天即将到来。这可能与我们讨论过的创造力有关,即真正超越已知界限的能力。在这种情况下,这已不再是简单的模式匹配,因为根本没有既有的模式可供参考。这比单纯的外推法更进一步,是一种类比推理。我认为目前的 AI 还不具备这种能力,或者说我们还没找到使用它们的正确方式。

在科学领域我经常这样问,它能提出一个真正有趣的假设吗,而不仅仅是解决一个现成的假设?当然,我说的“仅仅”是指解决黎曼猜想或千禧年大奖难题这类问题。如果能做到,那显然是惊天动地的。也许我们离实现这一目标只有几年时间。但我最想解决的是 P=NP 问题,那是我最喜欢的课题。然而,比这更难的是提出一套新的千禧年大奖难题,并能被顶尖数学家认可,认为它们具有足够的深度和意义,值得奉献一生去研究。我认为这又高了一个层次,目前我们还不知道如何实现。但我并不觉得这不可逾越,我相信 AI 最终能做到。我有时把这称为“爱因斯坦测试”,即你是否可以用截止到 1901 年的知识训练一个 AI,看它能否自主推导出爱因斯坦在 1905 年奇迹年提出的成就,包括狭义相对论?如果它能做到这一点,那么我认为我们正处于 AI 能够创造全新、真正原创事物的边缘。

(关于人生经验与 AGI 战略)我想我们之前提到过一些,那就是你最终会发现,追求难题和深层问题在某些方面并不比追求那些浅显、简单、表面的问题更困难。它们只是困难的维度不同。既然生命如此短暂,精力和时间都有限,你不如把心血投入到那些如果你不去推动就无法实现、且能产生重大影响的事情上。我就是通过这个视角来看待选择的。另一件事是,如果你从事的是深科技领域,我非常推崇跨学科研究。我认为在未来几年,学科间的交叉融合以及寻找领域间的联系将变得更加普遍,而利用 AI 也会让这种跨界变得更容易。

最后我想说的是,这取决于你的 AGI 时间表。我的预测大约是在 2030 年左右。如果你今天开启一段深科技之旅,这通常意味着一个长达 10 年的征程。那么你必须考虑到 AGI 可能会在旅途中途出现。这意味着什么?这不一定是坏事,但你必须将其纳入考量。你的项目能利用 AGI 吗?AGI 会给你的领域带来什么变化?这又回到了你之前提到的 AlphaFold 与通用 AI 的关系。我预见未来 Gemini、Claude 或类似的通用 AI 会把 AlphaFold 这样的专业系统当作工具来调用。我不认为我们会把所有功能都塞进一个巨大的大脑里,因为那样会造成过多的性能退化。如果我把所有的蛋白质数据都塞进 Gemini,那是没意义的。我们不需要 Gemini 去做蛋白质折叠。从信息效率的角度看,这反而会损害它的语言能力。我认为更好的方案是拥有出色的通用工具使用模型。它们甚至可以去训练那些特定的工具,但工具本身运行在独立的系统中。思考这种架构的影响以及你今天应该构建什么是非常有趣的。这同样适用于物理世界,比如你会建造什么样的工厂,什么样的金融系统等等。你需要认真预想那个世界的模样,然后去建造那些即便在 AGI 时代中途开启也依然具有价值的东西。

| 文章来源:数字开物



【AI技术与应用交流群|仅限受邀加入】


AI算力领域TOP级从业者专属圈层

√ 与头部算力企业深度对话

√ 与AI上下游企业深度对话

√ 获取一手全球AI与算力产业信息

√ 获取AI热点及前沿产业独家信息

√ 随时了解全球AI领域高管最新观点及实录全文

√ 有机会参与AI主题产业交流活动


扫码验证身份(需备注姓名/公司/职务

不止有 DeepSeek,更有 AI产业的未来!

• END

【专栏】精品再读