打开网易新闻 查看精彩图片

出品 | 《态度》栏目

作者 | 纪川 袁雪丽

编辑 | 丁广胜

3月27日,在2026中关村论坛年会的一场开源主题圆桌上,中国大模型与AI基础设施领域几位风格迥异、但都处在一线牌桌上的关键人物,坐到了一起。

这场名为 OpenClaw 与 AI 开源圆桌会议 的讨论,由月之暗面创始人杨植麟担任主持,智谱华章 CEO 张鹏、无问芯穹联合创始人兼 CEO 夏立雪、小米 MiMo 大模型负责人罗福莉,以及香港大学助理教授、博士生导师、Nanobot 团队负责人黄超同台参与。

几位同台者,分别站在中国 AI 生态里不同但都不可忽视的位置。

在这场讨论里,杨植麟抛给现场嘉宾的切口,并不宏大,却很精准:聊“龙虾”,聊大模型涨价,聊推理时代对算力基础设施的意义,小米在大模型方面的独特优势,Agent应用层面未来的技术方向,以及未来一年大模型发展的关键词。

谈OpenClaw :非常革命性和颠覆性的事件

杨植麟:现在最流行的就是openclaw,大家在日常使用或者类似产品时,觉得什么最有想象力或印象深刻?我们从技术角度,先请张鹏谈谈对openclaw和相关Agent的看法。

张鹏:我把它称作一个“脚手架”。它提供了在模型基础上搭建非常牢固、方便且灵活的可能性。普通人可以极低门槛地使用顶尖模型,尤其是编程和整体能力。以前想法受限于不会编程等技能,现在通过简单交流就能完成,这是一个非常大的突破。

夏立雪我最开始用不太适应,习惯了聊天式交互,感觉openclaw很慢。后来发现它其实是能帮我完成大型任务的。从按Token聊天到现在能完成任务的Agent,想象力空间提升了,但对系统能力要求也变大了,这就是为什么一开始会觉得卡。

作为基础设施厂商,我看到的是机遇和挑战。我们的资源要支撑起这个快速增长的时代。比如我们公司从1月底开始,每两周Token量翻一番。现在的Token用量就像当年100兆手机流量的时代。我们需要更好的优化和整合,让每一个鲜活的人都能用起来。这对整个社区是巨大的优化空间。

罗福莉我认为openclaw是一个非常革命性和颠覆性的事件。虽然深度Coding的人首选可能还是Code,但用过openclaw的人会感受到它在Agent框架设计上是领先于Code的,Code的最新更新其实都在向openclaw靠近。

它给我的最大价值在于“开源”:这有利于社区深入参与。它把国内次顶级闭源模型的上限拉得非常高,在绝大部分场景下任务完成度已非常接近最新模型,同时又靠Skill体系保证了下限。

此外,它点燃了大家的想象力。大家发现大模型外的Agent层有巨大空间,更多人,不仅是研究员,开始参与AGI变革,这在一定程度上替代了重复工作,释放了时间去做更有想象力的事。

黄超:首先是从交互模式上,openclaw给了大家一种“更有活人感”的体验。之前的Agent工具感更强,而openclaw以“软件切入”的方式,更接近大家想象中的个人贾维斯(J.A.R.V.I.S.)。

其次,它证明了架构Agent的框架可以既简单又高效。它让我们重新思考:是否需要一个All in one的超级智能体,还是需要一个轻量级操作系统或脚手架式的小管家?它让大家更有“玩起来”的心态,撬动生态里的所有工具,通过Skills或Tool的设计,赋能各行各业。

谈智谱模型调价:干活消耗的Token量是问答的10倍甚至100倍

杨植麟:张鹏,智谱最近发布了新的GLM Turbo模型,对Agent做了增强,能否介绍一下新旧模型的不同?以及观察到的提价策略反映了什么市场情况?

张鹏:发布Turbo主要是为了从“简单的对话”转向“干活”。openclaw让大家看到大模型能干活,但干活背后的Token消耗非常高,需要规划、尝试、Debug、处理模糊需求。Turbo在这些方面做了优化,本质上是多智能体协同架构,但在能力上有偏向性加强。

关于提价,因为干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高。长期低价竞争不利于行业发展,调整价格是为了回归正常的商业价值,让我们能持续优化模型,提供更好的服务。

谈推理时代的基础设施:应自我进化、自我迭代,形成自主组织

杨植麟:随着开源模型和推理算力形成生态,Token量爆发,逐渐从训练时代变成推理时代。请教夏立雪,这对无问来说意味着什么?

夏立雪:我们一直在思考AGI时代的基础设施是什么样子,以及如何一步步实现它。

当前脚下的问题在于AI带来的暴增需求,对系统效率提出了伟大优化的需求。我们通过软硬件打通来解决,接入了几乎所有种类的计算芯片,连接国内几十种芯片和算力集群,让资源用在刀刃上,提升转换效率。我们打造了一个标准化的Token工厂。

但这还不够,Agent更像人,能秒/毫秒级思考和发起任务。而现有的云计算基础设施是为“人”设计的(分钟级操作),限制了Agent。我们需要打造更智慧化的工程,让基础设施能适应AI的高频需求。

基础设施本身也应该是一个智能体,能够自我进化、自我迭代,形成自主组织。Agent之间能更好地通信和协作。基础设施和AI的发展不应隔离,而应产生化学反应,实现真正的软硬协同和算法与基础设施的协同。

谈小米的优势:竞争将下探到算力、推理芯片甚至能源层面

杨植麟:罗福莉,小米最近通过发布新模型和开源技术对社区做出了贡献,小米做大模型有什么独特优势?

罗福莉:我想先不谈小米的独特优势,而是谈谈中国大模型团队的优势。

两年前,中国团队在算力受限,尤其是互联带宽受限的情况下,做出了突破:在低端算力限制下,通过模型结构创新(如DPCV3、M1、MA等)去追求最高效率。这给了我们勇气和信心。

虽然现在国产芯片不再受限,但这种对高效率、低推理成本的探索依然重要。例如,现在的Hybrid、SPA、Linear attention结构等。

为什么结构创新重要?因为openclaw越用越聪明的前提是推理Context。现在的难题是:怎么在1M或10M的长上下文下,做到成本够低、速度够快?只有这样,才能激发高生产力任务,实现模型自迭代,在复杂环境中依靠超长Context完成自我进化。

我们现在正在探索Long Context Efficient架构,以及如何在真实长距离任务上做到稳定和高上限。

更长期看,随着推理需求爆发,今年可能增长100倍,竞争维度将下探到算力、推理芯片甚至能源层面。

谈Agent应用层面的重要技术方向

杨植麟:黄超,你开发了nanobots等有影响力的Agent项目,从研发或应用层面,接下来哪些技术方向值得关注?

黄超:关于Planning:现在的问题在于,面对长程任务和非常复杂的上下文(比如500步甚至更长),很多模型不一定能做好规划。这本质上是因为模型可能不具备这样的隐性知识,特别是在复杂垂直领域。我觉得未来的Planning需要把很多已有的复杂任务知识固化到模型里。

当然,Skill和Harness本质上也是为了缓解Planning带来的错误,因为提供了高质量的Skill,可以帮助模型去完成比较难的任务。这是针对Planning的解决方案。

然后是Memory:现在Memory永远存在信息压缩不准确、记不准的问题。在长线任务和复杂场景下,Memory会暴增,带来很大的压力。现在各类LLM和Agent都采用最简单的文件系统、Markdown格式的Memory,通过共享文件来做。我觉得未来的Memory应该走向分层设计,让Memory更通用。

因为现在的整个Memory机制很难通用,比如Coding场景、深度学习、多媒体领域,模态差别很大。如何对这些Memory做很好的检索索引、做到更高效,永远是一个权衡。

另外一点是,OpenCode让大家创建Agent的门槛大幅降低之后,未来可能不止一个Agent。我看到Kimi也有Agent Swarm(智能体群)机制,相当于未来每个人会拥有一群Agent。一群Agent相比于单个Agent,上下文会暴增,现在还没有一套很好的机制去管理,尤其对复杂Coding、科研发现来说,不管对模型还是对Agent架构,压力都很大。

对于Tool Use这块:现在Skill还是存在MCP当年的问题,就是质量不保障、有安全问题。现在Skill确实很多,但高质量Skill比较少,低质量Skill会很影响任务完成度。另外,Skill也很难避免恶意问题。

所以Tool Use这块可能需要靠社区,把Skill发展得更好,升级到在执行过程中进化出新Skill的能力。

这就是我觉得当下Agent存在的一些痛点和未来潜在的方向。

谈未来一年大模型发展:生态、自进化、可持续 token、算力

杨植麟:最后我们来做一个开放式展望。想请各位用一个词来描述接下来十二个月大模型发展的趋势,以及你的期望。这次我们先从黄超开始。

黄超:我觉得,在 AI 领域谈十二个月,其实已经是一个很遥远的时间了,很难判断十二个月之后会发展成什么样。原来这里面写的是五年,但我觉得把时间缩短到一年,反而更真实。

如果让我用一个词来概括,我会选“生态”。

现在“龙虾”让大家变得非常活跃,但我认为,未来 agent 真正重要的方向,是从一个“个人助手”进一步转变成一个真正的“打工人”角色。也就是说,它不能只是因为新鲜、好玩而被大家使用,而是要真正沉淀下来,成为大家日常工作的工具,甚至成为一个真正的 coworker。

所以我觉得,这件事一定需要整个生态共同努力。尤其是开源非常重要——当相关技术探索,包括模型层面的很多技术,都开源出来之后,整个生态才有机会一起共建。不管是模型迭代、skills 平台迭代,还是各种工具的发展,我觉得都需要更好地围绕 agent 来构建,创造一个更适合它生长的生态。

从我个人的感受来看,一个比较明显的趋势是:未来很多软件,可能未必还是主要给人用的。过去的软件默认是面向人的,而人需要 GUI;但未来很多软件,可能会越来越面向 agent 原生使用,也就是 agent native。这样的话,可能会出现一种很有意思的状态:人最终只使用那些能让自己感到快乐的 GUI。

所以我们也看到,整个生态正在从 GUI、MCP,逐渐转向 CLI 这样的模式。我觉得这背后说明,整个软件系统、数据体系,以及各种技术能力,都需要逐步变成 agent native 的模式。只有这样,agent 的发展才会真正丰富起来。

罗福莉:我觉得,把这个问题缩小到一年,其实非常有意义。因为如果放到五年,从我自己对 AGI 的定义来看,我甚至会觉得它已经实现了。

如果要用一个词来描述接下来一年里,AGI 进程中最关键的一件事,我认为会是“自进化”。

虽然这个词听起来有点玄,过去一年大家也提过很多次,但我最近才真正对它有了更深的体会。更重要的是,我开始看到“自进化”这件事,已经出现了一个更务实、可落地、可实操的路径。

原因在于,借助于足够强大的模型,我们之前在 chat 这个范式下,其实并没有真正发挥出预训练模型的上限。而这个上限,现在正在被 agent 框架激活。尤其是当模型开始执行更长时间任务的时候,我们会发现,它是可以自己学习、自己进化的。

一个很简单的尝试就是:在现有的 agent 框架里,给它叠加一个可验证的约束条件,再给它设置一个 loop,让模型不停下来、持续地围绕目标迭代优化。这样我们就会发现,它能够不断拿出更好的方案。

如果这种自进化持续下去,现在其实已经可以跑一两天了,国内很多模型基本都能做到,当然这也和任务难度有关。比如在一些科学研究任务里,像探索更好的模型结构,因为模型结构本身有明确的评估标准,比如更低的 perplexity,这类任务就比较适合验证。我们已经发现,在这种确定性较高的任务上,模型能够自主运行和演化两三天。

所以从我的角度看,自进化是目前唯一一个真正有机会创造“新东西”的方向。它不是简单替代现有人的生产力,而是像顶尖科学家一样,去探索这个世界上原本还不存在的东西。

其实一年前,我还觉得这个进程可能需要三到五年;但就在最近,我开始觉得这个时间尺度应该缩短到一到两年。也就是说,我们很可能在近期就能看到:大模型叠加一个很强的自进化 agent 框架后,对科学研究带来至少指数级的加速。

因为我最近已经观察到,我们组内做大模型研究的同学,他们的 workflow 本身就高度不确定、依赖创造力。而借助 cloud code,再加上顶尖模型,基本已经能够把我们自己的研究效率提升接近十倍。

所以我非常期待,这样的范式能够辐射到更广泛的学科和领域。我觉得这是接下来非常重要的一件事。

夏立雪:我的关键词是“可持续 token”。因为我看到,现在整个 AI 的发展仍然处在一个长期持续推进的过程中。我们也希望,它能够真正具备长期的生命力。

从基础设施的角度来看,一个非常现实的问题是:资源终究是有限的。就像我们当年讲“可持续发展”一样,现在站在“token 工厂”的视角,我们能不能持续、稳定、大规模地提供 token,让顶尖模型真正长期地服务更多下游场景,我觉得这是一个非常关键的问题。

所以现在我们也需要把视角放宽到整个生态。从最早的能源,到转化为算力,再到转化为 token,最终转化成实际的经济价值和 GDP,这里面应该形成一个可持续的、经济化的迭代链路。我们不仅要把国内的各种算力资源用起来,也在努力把这些能力输出到海外,让全球资源能够被打通和整合。

所以我认为,“可持续”还有一层含义,就是希望把具有中国特色的 token 经济学真正建立起来。

过去我们讲的是 Made in China。我们看到,中国能够把低成本、高效率的制造能力转化成优质商品,再输出到全球。那今天我们想做的,某种程度上可以理解为 AI Made in China:把中国在能源等方面的优势,通过 token 工厂,可持续地转化成优质 token,并输出到全球。

如果能够做到这一点,中国就有机会成为世界的“token 工厂”。这也是我今年非常期待看到的——中国为全球人工智能发展所带来的独特价值。

张鹏:大家可能都在仰望星空,那我就稍微落地一点。如果让我讲未来十二个月里最关键、也最大的问题,我觉得关键词就是“算力”。

因为刚才大家提到的这些技术进展,包括智能体框架,确实让很多人的创造力得到释放,效率也可能提升十倍。但前提是,大家得用得起、也用得上。如果因为算力不够,一个问题提出来以后,要等很久都得不到答案,那肯定是不行的。

也正因为这个原因,我们现在很多研究进展,包括很多原本想做的事情,其实都在一定程度上受到了限制。

我记得前两年,雅琴院士好像也在中关村论坛说过一句话,大意是:“没卡没感情,谈卡伤感情。”我觉得今天其实又有点回到了这个状态,只不过这次情况又不太一样。就像刚才提到的,我们现在已经进入了推理阶段,而之所以会转向推理阶段,是因为需求真的在爆发,而且是十倍、百倍地爆发。

刚才也提到,效率可能提升了十倍,但需求可能是一百倍,甚至还有大量需求根本没有被满足。那怎么办?这就需要我们大家一起来想办法了。