打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

熊飞宇博士 记忆张量创始人兼CEO

华中科技大学学士

美国 Drexel University 博士

上海算法创新研究院大模型中心负责人

曾任阿里巴巴集团业务中台数据智能负责人及淘宝天猫数据平台负责人

主导构建了国内首个千亿级数字商业知识图谱和零售行业知识交互大模型

获浙江省科技进步奖等多项荣誉

发表多个顶级 AI 会议与期刊论文

当大模型进入第四年,一个变化开始变得愈发明显:单纯依赖模型通用能力的提升,已经越来越难以覆盖真实生产环境中对长期状态、连续协作和个性化的要求。

近期,多家主流模型公司开始强化长期记忆、跨会话连续性和个性化能力,试图让 AI 从一次性对话工具,转变为可以长期协作的工作系统。

但一个更本质的问题也随之浮现:当模型开始“拥有记忆”,记忆究竟应该长在模型内部,还是成为一个独立系统能力?

在这场关于“AI记忆路径”的分歧中,「记忆张量」选择从系统基础层切入,把记忆能力做成可管理、可调度、可治理的基础设施。

记忆张量成立于 2024 年,试图解决一个被长期忽视的系统性问题:在当前大模型架构下,AI缺乏稳定的长期记忆能力,这直接导致其在复杂任务、跨会话协作以及个性化场景中的表现难以持续。

打开网易新闻 查看精彩图片

在技术路径上,团队于 2024 年推出了记忆分层大模型架构「忆³(Memory³)」,尝试在模型内部引入分层记忆机制,将隐性知识、显性信息与外部记忆进行结构化拆分,从而在提升推理效率的同时降低幻觉与成本。

但很快他们意识到,仅靠模型层的改造,仍然无法解决“长期记忆如何被管理和持续使用”的问题。

为此,2025年记忆张量进一步提出了 MemOS——行业内首个面向大模型的记忆操作系统,并首创了三层记忆调度架构。

打开网易新闻 查看精彩图片

在这一架构中,记忆不再是模型中的隐性副产物,而被视为一种可调度的系统资源,对其进行统一的生产、组织、调用与演化管理,从而让AI具备真正可持续的记忆能力。

4月13日,科创自媒体「小满书简」与记忆张量创始人熊飞宇博士展开深度对话。在创立记忆张量之前,熊飞宇博士长期在学术与产业之间切换:一边研究复杂系统与认知建模,一边在阿里负责超大规模数据智能系统的构建。也是在这个过程中,他逐渐意识到:一个系统要长期稳定运行,真正关键的不是算力,而是“状态管理能力”。

Q:从华中科大、Drexel University到阿里业务中台数据智能负责人,这些横跨学术与超大规模实战的经历,是什么契机让您创立记忆张量?

熊飞宇:我自己的判断,其实不是只来自学术,也不是只来自工程,而是来自两者的结合。在学校阶段,我更关注的是复杂系统、信息处理和认知建模这些底层问题;到了产业界,尤其是在阿里做超大规模数据平台和业务智能时,我越来越深刻地意识到,一个系统真正要在真实世界里长期有效运行,光有当下的计算能力是不够的,它还必须有稳定的状态管理能力。放到 AI 里,这个“状态”就是记忆。

所以我们今天做记忆,并不是因为我们认为记忆就是 AGI 的全部,而是因为我们认为:在当前这一代模型架构下,记忆层是一个已经非常明确的系统性缺口,也是产业落地中最迫切要补上的基础能力之一。

同时,我们从一开始也不是把这件事只当成一个产品功能来做。记忆张量一直在走的是一条更完整的路线:从基本原理建模出发,往基模训练延伸,再到系统和产品打造,形成一个完整闭环。我们今天先做的是记忆,因为它是当前最紧迫、最能产生实际价值的突破口;但我们的目标并不止于记忆。接下来,无论是思考、感知、推理,还是其他更深层的认知能力,我们都会持续沿着这条“从第一性原理到基模,再到产品”的路径往下走。

Q:面对大模型层出不穷的浪潮,为什么记忆张量公司选择深耕“记忆层”这一垂直赛道?

熊飞宇:我觉得在 AGI 时代,要谨慎使用“深耕某一个垂直赛道”这样的表述,因为整个行业变化太快了。基础模型本身在进步,Agent harness 这样的新框架在出现,新的产品形态和业务形态也在不断冒出来,这些都在持续挑战一家创业公司的判断能力和决策能力。今天看起来很重要的东西,明天可能就会被新的范式部分重写,所以我们不会把自己定义成一家只做某一个固定点位的公司。

我们之所以先从记忆切入,不是因为我们认为记忆是唯一答案,而是因为在当前这一代基础模型架构下,它是一个最明确、最迫切的系统性缺口。现有模型在长期状态保持、跨会话连续性、个性化稳定性以及复杂业务落地上,仍然存在很明显的短板,而真实世界的应用又恰恰对这些能力提出了非常高的要求。也就是说,模型架构本身的缺陷,和复杂业务落地的需要之间,形成了一个非常突出的矛盾,记忆正是这个阶段必须解决的问题。

打开网易新闻 查看精彩图片

所以更准确地说,我们不是“选择深耕记忆”,而是基于当下技术现实和产业现实,判断记忆是目前最值得先突破、也最能够形成实际价值的切入口。在这个基础上,我们会继续沿着基本原理建模、基模训练、系统与产品打造这条路径往前走,未来也一定不会停留在记忆本身,而是会继续走向思考、感知、推理等更完整的认知能力建设。

Q:“记忆张量”与MemOS的命名背后,隐藏着怎样的数学美感与物理逻辑?它解决的是AI的“遗忘”问题,还是“认知”问题?

熊飞宇:“记忆张量”这个名字,本身就带有我们对这件事情的理解:记忆不是一张静态表,也不是一个简单向量,而是一个多维、动态、可演化的结构。它有时间维度、有关系维度、有场景维度,也有主体视角维度。我们希望记忆不是一堆碎片,而是一个能被计算、被组织、被调度的高维系统。

“MemOS”则更直接,它强调的是操作系统思维。我们不是把记忆看作一个外挂插件,而是把它看作AI系统中的基础操作层。今天的AI应用要处理多用户、多Session、多Agent、多App,复杂度已经不是靠一个 prompt 或一个向量库能扛住的,因此必须新增一层统一处理框架,把记忆抽取、组织、检索、更新、治理这些事情系统化。

所以它解决的绝不只是“遗忘”问题。遗忘只是表象,更深层的是认知问题。AI为什么会幻觉?为什么人设会崩?为什么跨会话不连续?为什么任务越长越不稳定?归根到底,是因为系统无法形成稳定、可追溯、可更新的认知结构。

从这个角度看,MemOS解决的是从“短时响应”走向“长期认知”的问题。它不是给AI补一块记事本,而是在帮AI建立长期自洽的认知能力。

Q:“结构化属性树”与“基于时序事件记忆”如何模拟人类大脑,实现从“碎片信息”到“稳定人格”的跨越?

熊飞宇:如果把AI的长期记忆比作一个人,那“属性树”更像它稳定的人格骨架,“时序事件记忆”则是它不断积累的人生经历。

属性树的作用,是把原本无序、碎片化的信息,抽象成稳定的结构。例如在陪伴场景中,一个角色的价值观、边界感、关系状态、情绪风格,这些不能每次都从对话里临时猜,而要沉淀成稳定结构,成为回复前始终会被调用的“人格支柱”。这样,AI才不会因为一次用户诱导,就从高冷剑客变成“狗头表情包”。

而时序事件记忆则负责记录变化。因为真实世界不是静态的,用户偏好会变化,关系会演进,业务状态会更新。只有把关键节点放进时间线,系统才能理解“先发生了什么、后发生了什么、哪些信息已经过期、哪些关系正在演化”。这也是为什么我们强调记忆版本、时间线呈现、按生效版本调用——这不是为了存档,而是为了让AI在正确时间调用正确记忆。

所以,属性树负责“稳定”,事件记忆负责“演进”,两者结合之后,AI才有机会从“记住一些片段”升级到“形成一个相对稳定、又能随时间进化的数字人格”。

Q:在无限的数据流中,MemOS如何决定哪些记忆该被刻入“长效存储”,哪些该被“自然过滤”?

熊飞宇:这个问题本质上不是一个简单的“存还是不存”的问题,而是一个“不同层级的知识和经验,应该由谁来承载”的问题。我们的核心思路是,把记忆能力拆成两个层面:一层是记忆原生基模,另一层是工程化组件。

记忆原生基模承担的是更通用、更底层的能力,它解决的是跨行业、跨场景的泛化问题。也就是说,什么样的信息更值得长期保留,什么样的信息只是短期噪声,什么样的信息具备可迁移的长期价值,这里面其实有一部分是可以通过基础模型的记忆建模能力来学习和泛化的。比如对于“长期稳定偏好”“关键事实关系”“重要时序变化”这类信息,基模本身应该具备更强的识别、压缩和抽取能力。

但光有基模还不够,因为真实行业里最复杂的部分,往往不是通用规律,而是个性化需求和行业 know-how。不同场景里,什么叫“重要记忆”,标准差异非常大。情感陪伴、金融服务、教育辅导、医疗健康,它们对记忆粒度、更新频率、保留边界、调用方式的要求都完全不同。这部分就必须通过工程化组件来解决,包括属性树、时序事件记忆、版本管理、权限控制、记忆调度、业务规则模版等,把具体行业的经验、边界和约束承载进去。

所以 MemOS 的判断逻辑不是简单做一个统一阈值,而是“基模负责通用记忆能力,工程化组件负责行业化和个性化落地”。前者决定系统有没有跨场景泛化能力,后者决定系统能不能真正进入具体业务、满足真实需求。

打开网易新闻 查看精彩图片

换句话说,长效存储的形成,不是靠把所有数据都存下来,而是靠“基模抽象能力”和“工程化行业能力”共同作用的结果。只有这样,系统才能既不过度依赖人工规则,也不会因为缺乏行业约束而把大量噪声和低价值信息带入长期记忆。最终我们希望做到的是:真正通用的部分由模型吸收,真正关键的行业特性由系统承载,两者结合,形成既有泛化能力、又能服务具体场景的长期记忆体系。

Q:记忆、消息、对话、知识库四大API,如何降低开发者构建“有温度、有深度”AI应用的门槛?

熊飞宇:开发者今天做AI应用,最大的痛点不是不会调模型,而是不会系统性处理长期状态。你让一个应用变得“有温度”,本质上是让它记住人;你让它变得“有深度”,本质上是让它理解历史、场景与关系。

所以我们把复杂的记忆能力拆成开发者更容易使用的标准化接口。记忆 API 解决长期状态沉淀和召回;消息与对话 API 解决交互过程中的上下文管理;知识库 API 则负责把企业已有资产挂载进来,让AI既懂人,也懂业务。

这意味着开发者不需要从零设计抽取逻辑、索引结构、版本管理、冲突消解和记忆调度策略,而是可以直接在 MemOS 的基础上,快速构建一个既能跨会话连续理解用户、又能动态调用知识、还能逐步形成个性化体验的AI应用。

换句话说,我们做的不是让开发者多学一套复杂框架,而是把“长期记忆能力”从高门槛研究问题,变成可调用、可部署、可落地的工程能力。

Q:用户、AI应用与MemOS之间的“数据回路”是如何运转的?如何确保极低的召回时延与极高的准确度?

熊飞宇:这套回路可以理解为“交互—抽取—组织—检索—更新”的闭环。

用户与AI应用交互时,会产生对话内容、反馈信息、行为轨迹、任务结果、外部知识调用结果等多种信号。MemOS不会把它们当作原始日志简单堆起来,而是通过 Memory Reader、Memory Organization、Memory Retrieval、Memory Update 等系统链路,把它们抽取成可用记忆、组织成可检索结构,再在后续合适时机被调回模型上下文中。

为了保证时延和准确率,我们做了几件事。第一,不是每次被动整库检索,而是做多粒度触发和调度,从“被动检索”走向“主动式生成”,提前准备高概率会被用到的记忆。第二,采用分层记忆架构,把参数记忆、激活记忆和明文记忆统一管理,不同类型的信息走不同路径。第三,结合结构化组织、语义检索、规则过滤和版本管理,减少脏数据和错误召回。

打开网易新闻 查看精彩图片

从结果上看,MemOS在多个公开基准和系统性能测试中都体现出“高精度、低开销”的特性,在实际服务中也强调即写即查、工业级成功率和低延迟响应。

Q:相比于市面上主流的向量数据库或简单的RAG方案,MemOS的“分层记忆架构”在商业落地成本上具有怎样的竞争优势?

熊飞宇:向量数据库和简单RAG解决的是“查得到一些相关内容”,但它们通常解决不了“长期记忆系统”真正麻烦的部分:时间、冲突、去噪、版本、场景、主动调度、人格一致性和技能演进。

传统RAG的优点是轻量、直接、容易接入,但它的短板也很明显:它不知道新旧信息谁更重要,不理解用户深层意图,无法处理冲突信息,也很难在复杂多轮任务中持续维持高质量上下文。结果就是,系统会不断重复检索、反复塞上下文、Token滚雪球,最终成本越来越高,效果反而不稳定。

MemOS的分层记忆架构,本质上是在更高层面重新组织成本结构。我们不是让每轮都“重新查、重新拼、重新喂”,而是通过分层管理、主动调度、结构化压缩、版本化更新,把很多原本重复发生的成本前置和系统化。这样一来,开发者得到的不是“更多检索”,而是“更少但更准的调用”。

这也是为什么我们强调 MemOS 不只是性能提升,更是商业落地成本优势:它可以在提升效果的同时显著减少无效上下文、减少重复推理、降低Token消耗,并提高系统长期稳定性。在真实Agent场景里,这种优势会比单次Demo里的漂亮回答更有商业价值。

Q:情感陪伴的“人性化”:如何通过技术手段解决“人设崩塌”这一行业顽疾?属性树如何成为AI的“性格支柱”?

熊飞宇:情感陪伴行业最大的问题之一,就是模型会“短暂动人、长期失真”。第一天它像一个有灵魂的角色,聊久了就会变成一个风格漂移、设定混乱、边界失控的聊天工具。这种“人设崩塌”会直接摧毁沉浸感,也摧毁用户信任。

我们解决这个问题的核心思路,是把“人格”从prompt描述,升级为结构化记忆对象。也就是说,角色不再只是开头写几句设定,而是有稳定的属性树:价值观、身份认同、语言风格、关系边界、禁区规则、演进状态,都以结构化方式沉淀下来,并在每次响应前被系统化调用和约束性召回。

这样做的好处是,角色的稳定性来自系统,而不是靠模型临场发挥。用户可以不断互动、不断试探、不断诱导,但系统始终知道“什么是这个角色不能丢的骨架”。在这个基础上,再结合事件记忆和动态关系状态,角色就不只是稳定,还能进化——从冷淡到熟悉,从疏离到信任,关系的变化是连续的、可追踪的,而不是随机漂移。

所以属性树之于陪伴AI,不只是资料表,而是真正的“性格支柱”。

Q:智慧家庭的“主动进化”:在摄像头应用中,MemOS如何完成从“冷冰冰的监控”到“懂生活的管家”的质变?如何将视频流转化为有价值的家庭偏好图谱?

熊飞宇:传统摄像头系统看到的是“画面”,但真正有价值的不是画面本身,而是长期生活规律、家庭习惯和空间语境。

要从监控走向管家,关键是把连续的视频流,转化成可以被理解、被组织、被长期调用的家庭记忆。比如谁通常几点回家,孩子通常在哪些区域活动,老人最近活动半径是否变小,哪些生活事件重复出现,某些异常行为是否正在形成趋势——这些都不是一次识别能解决的,而必须靠长期记忆建模。

MemOS的价值就在于,它可以把多模态输入沉淀成“属性 + 事件 + 时间线”的组合。属性层沉淀家庭成员、设备、空间、生活习惯等长期画像;事件层记录关键动作、状态变化和异常节点;时间线则帮助系统理解这些模式是偶发还是持续。这样,系统给出的就不再只是“有人经过摄像头”,而是“孩子今天回家时间比平时晚很多”“老人这周夜间起夜频率明显增加”“家庭对某类提醒长期不响应,可以降低打扰”。这就是从感知走向理解,再走向服务。

未来智慧家庭真正需要的,不是更多告警,而是更少但更对的主动服务,而这背后本质上就是家庭级长效记忆能力。

Q:在处理高度个人化的记忆数据时,公司如何构建技术红线,实现“精准关怀”而不越界?

熊飞宇:记忆系统越强,越不能只谈能力,必须同步谈边界。因为记忆不是普通数据,它承载的是用户长期偏好、关系状态、行为习惯,甚至是人格画像。它一旦被误用,伤害会比普通推荐系统更大。

我们的基本原则是三句话:第一,用户知情;第二,用户可控;第三,系统可审计。

具体来说,技术上必须做到权限管理、生命周期管理、隐私控制、版本追溯和可删除。用户应该知道系统记住了什么,也应该有能力修正、覆盖、删除和限制某类记忆被使用。对于企业场景,还必须做到租户隔离、权限分层、调用水印和治理校验,不能让“记忆能力”变成黑箱能力。

更重要的是,我们认为“精准关怀”不等于“无限推测”。AI可以通过记忆更理解用户,但不能越过用户没有授权的边界,更不能在高风险场景中把推测当事实。越是涉及医疗、金融、法律、未成年人等场景,系统越要保守、可解释、可确认。

所以,真正成熟的记忆系统,不只是记得更多,而是知道哪些该记、哪些不该记、哪些能用、哪些不能越界。

Q:记忆张量的短期爆发点在哪里?长期来看,MemOS是否会演变为AI时代的“分布式数字大脑”?

熊飞宇:短期来看,爆发点就在两个地方:第一,Agent快速走向真实生产环境;第二,用户对个性化和连续性的要求快速上升。

一旦AI开始真正做事,而不只是聊天,记忆就从“有更好”变成“没有不行”。因为Agent需要跨步骤、跨会话、跨工具、跨角色地处理任务,而没有记忆,就没有办法形成稳定状态和持续优化能力。与此同时,用户对AI的期待也在变化,大家不再满足于“它会回答”,而开始要求“它要懂我、记得我、越来越像为我服务的系统”。

长期来看,我认为 MemOS 很有机会演变为AI时代的分布式数字大脑,但这个“大脑”不是一个中心化超级黑箱,而是一个可调度、可治理、可迁移、可共享的分布式记忆网络。它既可以服务单个用户,也可以服务多Agent协作;既可以是企业内部的组织记忆,也可以是跨应用的个性化记忆中枢。

换句话说,我们真正想做的,不只是让模型“记得更多”,而是让记忆本身成为AI世界中的基础组织方式。

Q:面对模型端(如Long Context技术)的演进,记忆张量的护城河在哪里?

熊飞宇:我觉得这个问题不能简单理解成“某一种产品能力会不会被替代”,因为真正的护城河,从来不是某个具体功能,而是你对智能本身演化方向的判断,以及你有没有能力把这种判断持续落到模型、系统和产品上。

Long Context 当然会进步,未来基础模型的架构也一定还会继续变化。但无论具体形态怎么演进,一个更本质的问题始终存在:智能系统如何形成、组织、调用和演化自己的有效状态。今天这个问题表现为记忆,未来也可能进一步延伸到思考、推理、感知等更完整的认知能力。我们真正的护城河,不是某一个阶段性的工程解法,而是我们一直在试图从基本原理出发,去理解这些能力到底应该如何被建模。

所以,记忆张量的核心优势,不在于我们先做了一个产品,或者先占了一个概念,而在于我们对基模和基本原理有一套持续的判断:什么能力应该内生到模型里,什么能力应该通过独立系统层来承载,什么问题是当前架构下的阶段性补丁,什么问题是通向下一代智能形态时必须被重新定义的底层命题。这样的判断能力,才是最难被复制的。

换句话说,我们不是把自己看成一家做某个单点功能的公司,而是把自己看成一家持续探索认知能力建模与落地路径的公司。今天我们先从记忆切入,是因为它是当前最突出的矛盾;但我们的目标并不止于记忆。未来无论模型如何演进,只要“如何让智能系统获得更稳定、更长期、更可演化的认知能力”仍然是核心问题,我们的基本原理判断、基模理解和系统化落地能力,就会持续构成真正的护城河。

Q:当AI拥有了永恒的记忆,它对人类社会的关系、知识的传承甚至个体的存在意味着什么?

熊飞宇:这是一个很大的问题。我自己的理解是,AI拥有长效记忆之后,最先改变的不是“机器”,而是“关系”。

因为当一个系统能够长期理解你、持续服务你、和你一起积累共同历史,它就不再只是一个一次性的工具,而会逐步变成你的认知伙伴、工作伙伴,甚至某种意义上的数字延伸。这会重塑人和AI之间的关系,也会重塑人和信息、人与组织、人与历史之间的连接方式。

从知识传承的角度看,过去很多经验会随着个体离开而流失,而有了长期记忆系统,很多原本难以结构化的经验、偏好、协作方式、隐性知识,都有机会被更好地沉淀和传递。这意味着知识不再只是文档级传承,而会进入“认知级传承”。

但与此同时,我们也必须非常警惕。因为“永恒记忆”并不天然是好事。人类之所以能健康生活,也部分依赖遗忘。遗忘带来抽象、带来修复、带来重新开始的可能。AI如果只会记住,不会治理,不会遗忘,不会尊重边界,那它带来的不是文明进步,而是新的系统风险。

所以我认为,AI长效记忆真正的终局,不是“永远记住一切”,而是“在该记住的时候记住,在该忘记的时候忘记,在该负责的时候可追溯,在该尊重人的时候始终把人放在中心”。

如对该项目感兴趣,请扫码交流:

点击报名:

打开网易新闻 查看精彩图片

长按识别,欢迎报名(成都)

—— 芯榜 ——

芯榜成立于 2015 年,是半导体垂直领域的产业媒体与数字化服务平台。全网覆盖超 100 万垂直行业用户,核心提供专业榜单发布、原创访谈、产业报告、峰会活动及研究咨询等服务。已合作近千家半导体生态企业,联动多家基金公司与产业媒体,助力硬科技产业发展。

打开网易新闻 查看精彩图片