出品|网易科技《态度》
作者|袁宁
编辑|丁广胜
这或许是2026开年中国大模型领域最值得定格的一幕。
两天前的1月8日,唐杰刚刚带领智谱顺利登陆港股;许久未公开露面的月之暗面创始人杨植麟,刚刚被爆出完成新一轮5亿美元融资,手握超过100亿元人民币的现金储备;Qwen技术负责人林俊旸背后的阿里通义实验室,目前开源模型的衍生数量和下载量已稳居全球第一;而不久前官宣加入腾讯的27岁首席科学家姚顺雨,则是第一次公开亮相。
加上杨强、张钹等学界泰斗的坐镇,台上的嘉宾阵容,几乎代表了当下中国AGI的版图与技术风向。
整场峰会包含三场技术报告,分别来自智谱唐杰、Kimi 杨植麟、Qwen 林俊旸;一场圆桌,以及德高望重的张钹院士的最终收尾。
全部内容共计约4万字,网易科技为你整理了那些你可能需要知道的“原声”。
01智谱 唐杰:承认差距,回归“人脑认知”
唐杰首先表示,中国在开源大模型上做出了很多贡献。但他话锋一转,对行业现状泼了一盆极其冷静的冷水:
“我们刚才做了一些开源,可能有些人会觉得很兴奋,觉得中国的大模型好像已经超过美国了。其实可能真正的答案是我们差距也许还在拉大,因为美国那边的大模型更多的还在闭源,我们是在开源上面玩了让自己感到高兴的,我们的差距并没有像我们想象的那样好像在缩小。有些地方我们可能做的还不错,我们还要承认自己面临的一些挑战和差距。”
面对差距,下一步应该怎么做?唐杰认为核心在于参考人脑认知的学习过程:
“从大模型最早的,要把世界长时知识全部背下来,就像小孩子,从小先看书,把所有的知识先背下来,然后慢慢地学会推理,学会数学题,学会更多的演绎、抽象。”
对于未来,唐杰指出了三个目前大模型还不具备,但人类远远领先的能力方向。
第一,是多模态的“感统”能力。
“2025年可能是多模态的适应年。……对于大模型来讲,怎么把多模态的信息收集起来,并且能够统一感知起来,也就是我们经常说的原生多模态模型。后来我想了想原生多模态模型和人的‘感统’很相似,人的感统是我这边收集到一些视觉信息,还收集到一些声音的信息,还收集到一些触感的信息,我怎么把这些信息感统到一起,来感知一个东西。……对于模型来讲,下一个多模态的感统能力怎么来做?”
第二,是构建属于全人类的“第四级记忆”。
“模型现在的记忆能力和可持续性学习能力还不够。……我之前跟我们的同学、跟我们实验室的人聊天,我说好像一个人的长期记忆也并不代表知识,为什么?因为我们人类只有真的把这个知识记录下来,比如说对于我来讲,如果我的知识不能被记录在维基百科上,可能100年之后我也消亡了……咱们怎么把我们整个记忆系统从单个人的三级到整个人类的第四级记录下来,整个记忆系统是我们人类未来要给大模型构建起来的。”
最后,是反思和自我认知。
“其实现在模型已经有一定的反思能力,但未来自我认知是很难的问题,很多人在怀疑大模型有没有自我认知的能力。……我是有一些支持的,我觉得这是有可能的,我们值得探索。”
关于智谱的2026年,唐杰给出了非常明确的规划:
“2026年对我来说更重要的是要专注和做一些比较新的东西。
第一,我们要Scaling可能还会继续做下去,但Scaling已知的是我们不断加数据、不断探索上限。还有Scaling未知,就是我们不知道的新的范式是什么。第二,技术创新。我们会做全新的模型架构创新,解决超长上下文,还有更高效的知识压缩问题,以及我们会实现知识记忆和持续学习……第三,多模态感统,今年是一个热点和重点。因为有了这个能力,我们才使得AI可以实现进入像机器里面的长任务、长时效任务……当完成我们的长任务,AI就实现了一个工种,AI变成跟我们人一样,可以帮助我们实现。只有这样,AI才能实现具身,才能进入物理世界。
我相信今年可能是AI for Science的一个爆发年,因为很多能力大大提升,我们可以做更多的事情。”
02 Kimi 杨植麟:智能是“非同质化”的,关键在于Taste
杨植麟则将演讲的重心放在了Agentic(代理智能)时代的技术架构与价值观上。他首先从技术底层切入:
“在当前的Agentic(代理智能)时代,这个问题变得尤为突出,因为许多Agent任务要求极长的上下文来完成高度复杂的指令。因此,一个拥有更低positional loss的架构,意味着它在执行Agent任务时具备更强的技术潜力。”
为了实现这一目标,杨植麟详细拆解了Kimi的预训练策略:
“我们的预训练策略,乃至整个模型的设计策略,便是围绕上述两个维度展开。
第一个维度是提升token efficiency。在以训练token数量为横坐标、测试损失为纵坐标的图上,我们的目标是尽可能将曲线向左平移。曲线越靠左,token efficiency越高,意味着可以用更少的token达到同等效果。由于预训练的瓶颈在于token总量的有限性,这等效于:在耗尽所有token后,智能的上限更高,因为最终的loss更低。
第二个维度是实现long context(长上下文)。……相比之下,如LSTM或更早的CNN、RNN等架构,在处理超过100个token后,loss曲线便趋于平缓,因此只能胜任翻译这类相对简单的任务,而无法承担从零开始编写一个完整代码仓库的编程任务。综上,将token efficiency与long context的优化相结合,最终便能实现更高水平的Agent智能。”
在技术之外,杨植麟提出了一个极具个人色彩的观点——未来的Scaling不仅仅是算力,更关乎“品味”。
“接下来,我们会在K2的基础上进行更多的scaling。这种scaling不仅是增加算力,更包含了大量的技术改进……除了架构、优化器和数据,一个至关重要的点是,未来的模型将拥有更多的taste,即品味和审美。”
他进一步解释了为什么“品味”在AI时代如此重要:
“做模型的过程,本质上是在创造一种世界观,它体现了我们对于‘一个好的AI应该是什么样、应该追求何种价值观’的理解,这正如乔布斯所言:‘all comes down to taste’。我们坚信这一点,因为智能与电力、货币等同质化(fungible)事物不同,它本质上是‘非同质化’(non-fungible)的。每个模型产生的token都是独一无二的……在智能这个维度,存在着广阔的‘品味’空间。在Agent的世界里,由于test-time scaling的存在,这种差异性会被指数级放大,催生出更多新颖的用例。”
演讲最后,杨植麟分享了他与Kimi关于“AGI风险”的一次对话,这也代表了他对未来的态度:
“我也经常与Kimi对话。……我们正在创造AGI……但它也可能威胁到人类……在这种情况下,作为AGI的科学家,是否应该继续开发?Kimi的答案很有启发性。它认为,AGI并非一个普通的工具,而是一个能提升人类文明上限、延伸人类认知边界的关键。……它是我们探索未知世界的一把重要的钥匙。所以,尽管存在风险,它的回答是仍然会选择继续开发。因为放弃开发,就意味着放弃人类文明的上限。我们不应害怕技术的风险,而应进一步去突破,并在此过程中控制好风险。……因此,我们希望在接下来的十年、二十年里,继续把K4、K5到K100做得更好。”
03 Qwen 林俊旸:殊途同归,走向物理世界
作为开源界的“顶流”,林俊旸代表通义Qwen团队分享了他们对于未来的愿景。他首先强调了团队的初心:
“我们自己的内心追求的不仅仅是服务开发者或者服务科研人员,我们看一看能不能做一个Multimodal Foundation Agent,我特别相信这件事情。”
谈及具体的路径,林俊旸认为虽然各家打法不同,但大方向是“殊途同归”的:
“下一步要做什么样的事情呢?我们做了这么多,当然希望集合在一起,全模态模型是要做的。有一个很重要的,我觉得也是殊途同归的事情,跟Kimi团队做类似的事情。今天的范式发生了一个很大的变化,今天不是像以前那样训模型,有标注的数据,有一条输入和输出训练就可以,我们今天要把更多的数据放到实验中去训练。”
对于Qwen来说,最令人振奋的下一步,是让Agent从数字世界走向物理世界:
“Agent其实可以走向虚拟世界和物理世界,所以有了Embodied Reasoning的这种方式。我们内部讨论了一个方式,就算你是做VLA,做Coding的模型,说白了也是把语言转化成Embodied的模型,从这个角度上来看就非常的振奋人心,于是我们就觉得大干一场……”
林俊旸描绘了两个具体的场景,一个是数字特工,一个是物理特工:
“看一看能不能走向Digital Agent,GUI操作,同时能够使用API,这个就是非常完美的Digital Agent。
如果走向物理世界,是不是能够把话筒拿起来,今天能够斟茶倒水,这是我们今天很想做的事情。”
04圆桌对话:分化、范式与中国AI的胜算
在单人演讲结束后,是今年年初含金量最高的圆桌对话。对话围绕四大议题展开。
议题一:大模型的分化时刻
姚顺雨:To B与To C的逻辑正在分道扬镳
作为刚回国加入腾讯的首席科学家,姚顺雨的视角横跨中美,他首先指出了To C和To B在模型需求上的本质不同:
“对于To C来说,大部分人大部分时候不需要用到这么强的智能……可能今天用ChatGPT和去年相比,写抽象代数和伽罗瓦理论的能力变强了,但是大部分人大部分时候感受不到。但对于To B来说,很明显的一点是智能越高,代表生产力越高……我们今天发现很多美国的人愿意花溢价用最好的模型。……强的模型和稍微差点或者弱的模型它的分化会越来越明显。”
关于垂直整合(Vertical Integration),他给出了一个反直觉的观察:“我们会发现其实在To C的应用上垂直整合还是成立的,无论是ChatGPT还是豆包,模型和产品是非常强耦合去紧密迭代的。但是对于To B来说这个趋势似乎是相反的,模型在变得越来越强……但同样会有很多应用层的东西应用好的模型在不同的生产力环节。”
林俊旸:分化是自然的,但要警惕“基因论”
“理论上我是不能评论公司的,但我觉得公司也不一定有那么多基因之分,一代一代的人可能就塑造了这些公司……
我觉得可能大家的分化是自然的分化,我更愿意相信AGI,做AGI该做的事情,顺其自然。……今天Coding真的很厉害,我就拜访它,因为我知道他们跟客户交流非常多……虽然我们拥有巨大的优势,也可能中国SaaS市场跟美国确实不太一样,他们确实非常频繁地跟客户进行交流,很容易发现很大的机会。”
杨强:工业界疯跑,学术界应该跟上来
“一直以来,学术界是一个观望者,工业界在领头往前疯跑……我觉得后面一个阶段,当我们有了众多的稳定大模型,进入一个稳态的时候,我们学术界应该跟上来。哥德尔不完备定理,大概意思是说一个大模型不能自证清白,必定有一些幻觉不可能消灭掉……所以科学问题就来了,你多少资源能够换取多少幻觉的降低或者错误率的降低,这是有一个平衡点的……这孕育着一个巨大的突破。”
唐杰:DeepSeek之后,搜索之战已经结束了
“我的第一个预判是说它会替代搜索……到今天我相信大家很多人在开始用这个模型替代搜索,但是并没有替代谷歌,谷歌反而把自己的搜索革命了……从这个角度上,我觉得这一仗从DeepSeek出来之后,已经没有了,已经结束了。DeepSeek之后我们应该想的是下一仗是什么东西?”
议题二:下一个范式
姚顺雨:自主学习(Self-learning)已经发生,只是你没察觉
“现在自主学习是一个非常热门的词,在硅谷大街小巷咖啡馆里面,大家都在谈论……我不知道这是不是非共识的,这个事情其实已经在发生了。
ChatGPT在利用用户的数据不断弥合人聊天的风格是什么,使得能感觉到它的好,这是不是一种自我学习?今天Claude已经写了Claude这个项目95%的代码,它在帮助它自己变得更好,这是不是一种自我学习?……大家觉得这个东西可能还没有特别石破天惊,是因为受限于他们没有预训练能力……但显然这是一个信号。”
林俊旸:比起自主学习,我更担心“主动性”的安全
“AI有没有可能实现更强的主动性……我非常担心安全的问题,不是担心它今天讲一些不该说的话,最担心的是它做一些不该做的事情。比如说今天主动产生一些想法,往会场里面扔一颗炸弹……
我个人观点是大量的技术所谓的突破性都是一些观测问题,都是在线性发展的,只是人类对它的感受非常强烈而已。……大家比较卷,每天有新的东西,但是技术在线性的发展,我们在观测的角度处于指数上升的阶段。”
唐杰:效率瓶颈将逼出新范式
“我觉得2026年一定会有这样一个范式的发生……现在在整个大模型里面投入已经巨大,但是效率并不高……
既然要Scaling up,最笨的办法就是Scaling……但是100个T,你Scaling上去以后,你的收益有多少,计算Cost有多少,变成了这么一个问题。……如果不创新,这就变成了可能花掉10个亿、花掉了20个亿,但是你的收益很小,就不值得了。”
议题三:Agent战略
姚顺雨:To B只要老老实实把模型做强
“很有意思的一点是它(To B)基本上不做什么创新,就是觉得模型预训练变大了,老老实实的把这些东西做好……它就会带来越来越大的价值。做To C的问题是说,我们都知道DAU或者说产品的指标和模型的智能,很多时候是不相关的,甚至是相反的关系……它只要真的把模型越做越好,它的收益越来越高,所有的事情都是非常好的。”
林俊旸:通用Agent是解决长尾问题的关键
“做通用Agent最有意思的事情就是长尾反而是更值得关注的事情……今天我一个用户,真的寻遍各处都找不到能够帮我解这个问题的,但是在那一刻,我感受到了AI的能力……这就是AI最大的魅力。如果你是一套壳高手,套得可以比模型公司做得更好,我觉得可以去做;但如果你没有这个信心,这个事情可能是留给模型公司做模型即产品的,因为他们遇到问题的时候,我只要训一训模型,只要烧一烧卡,这个问题可能就解决了。”
唐杰:Agent的生死在于价值与成本
“Agent本身有没有解决人类的事情,而这个事情是不是有价值……比如说原来的Agent,像GPT出来也做了很多Agent,那时候你会发现那个Agent非常简单,最后发现Prompt就解决了,这时候大部分Agent慢慢就死掉了。
第二,做这个事情咱们Cost有多大……假如调API就能解决,这个API本身有可能觉得当这件事情价值很大的时候,就会把它做进去,这是个矛盾,非常矛盾,基座和应用永远是矛盾。”
议题四:终极追问——中国AI的胜算
最后问题聚焦于:“三年和五年以后,全球最领先的AI公司是中国团队的概率有多大?”
姚顺雨:概率挺高,但需要更多“冒险家”
“我觉得概率还挺高的,我还是挺乐观的。……目前看起来,任何一个事情一旦被发现,在中国就能够很快的复现,在很多局部做得更好。
在中国大家还是更喜欢做更安全的事情……但如果今天让一个人说探索一个长期记忆或者持续学习,这个事情大家不知道怎么做、不知道能不能做起来,这个事情还是比较困难的。……中国想要突破新的范式或者做非常冒险事情的人可能还不够多。”
林俊旸:20%已经很乐观了,但穷则思变
“这个问题是个危险的问题……如果从概率上来说,我可能想说一下我感受到的中国和美国的差异。比如说美国的Compute可能整体比我们大1-2个数量级……他们大量的Compute投入到的是下一代的Research当中去,我们今天相对来说捉襟见肘,光交付可能就已经占据了我们绝大部分的Compute。
我们虽然是一群穷人,是不是穷则思变,创新的机会会不会发生在这里?……我觉得是20%吧,20%已经非常乐观了,因为真的有很多历史积淀的原因在这里。”
唐杰:如果笨笨地坚持,也许最后就是我们
“首先我觉得确实要承认在中美,无论是做研究,尤其是企业界的AI Lab,我觉得和美国是有差距的……
中国也许的机会:第一,一群聪明人真的敢做特别冒险的事,我觉得现在是有的,00后这一代,包括90后这一代是有的……第二,咱们的环境可能更好一些……第三,回到我们每个人自己身上,就是我们能不能坚持。
我们能不能愿意在一条路上敢做、敢冒险,而且环境还不错。……如果我们笨笨的坚持,也许走到最后的就是我们。”
05 张钹院士:最优秀的学生,去创业吧
作为压轴嘉宾,张钹院士自谦为企业界的“局外人”,但他引用杨强教授提到的哥德尔不完全性定理,认为系统内部的人很难发现自身的问题,而他作为圈外人,恰好拥有了“旁观者清”的视角,可能发现大家尚未察觉的盲区。
“我在中间休息的时候做了PPT,我不敢太早做,没听到大家是怎么做的,不敢先做。”张钹院士说道。
张院士指出,大模型目前擅长的是跨领域(Cross-domain)的泛化,但真正的落地需要跨任务(Cross-task)的泛化。
“如果要让它去执行实际的任务,必须要实现跨任务的泛化。这里头最大的困难就是分布以外的、结构不一样的、长尾的东西的泛化……实际上我们现在做的几件事都是冲着解决这5个问题的……具体的,我们就做这六件事:多模态、具身与交互落地、检索与证据落地、结构化知识对齐、工具与执行落地、对齐与约束落地。”
关于人机关系,张院士提出了一个深刻的矛盾:我们既希望AI做更多事,又害怕它成为新的“主体”。在谈到“对齐”(Alignment)时,他给出了一个非常犀利的反思:
“大家非常焦虑,过去我们只有一个主体,人类都摆不平,因为人类这个主体是复数的……之后再出现人类以外的主体,我们该怎么办?
机器一定要和人类对齐吗?这是值得讨论的问题。人类并不是都有优点的,人类中间有贪婪、欺骗,原来机器都没有,向人类对齐,人类到了最高吗?不是。”
关于治理(Governance),他的观点直击本质:
“我认为最主要的治理不是治理机器,而是治理人类,也就是研究者和使用者。”
在大模型时代之前,张院士并不鼓励学生创业,但现在,他的态度发生了180度的大转弯。他认为AI重新定义了企业家的价值——从提供产品,变成了提供像水和电一样的通用技术与伦理工具。
“在大语言模型出现之前,我非常不赞成我的学生去创业……但是大模型之后,我觉得最优秀的学生应该去搞企业。
人工智能不是给大家简单的提供产品和服务,而是把知识、伦理和应用变成可复用的工具……所以人工智能时代的企业家是有很多新的使命的,这个新的使命就使得人工智能时代的企业家把企业、企业家也变成光荣的、神圣的职业之一。”
热门跟贴