锴杰最近不声不响整了个大的,Macaron AI成立了Mind Lab ,并且发布了两个重要研究。
Mind Lab专注一个核心问题:让AI从真实使用中不断学习和进化,而不是训练完就冻结。
成立之初他们就发布了三个研究成果,简单解释一下,具体可以看他们的论文。
第一,用10%的成本训练超大模型:
训练万亿参数的AI模型通常需要海量GPU,成本高到普通团队玩不起。Mind Lab通过LoRA技术加混合并行系统,把成本降到原来的10%。
更关键的是,他们证明了在相同算力下,"大模型+小型调整"比"小模型+全量训练"效果更好。因为大模型的基础能力够强,只需要微调就能适应新任务。
这套方案已经贡献给NVIDIA和火山引擎的开源项目,在Kimi K2这样的万亿参数模型上跑得又稳又快。
第二,AI终于有了真正的记忆:
现有AI的记忆方案要么反复总结(算力浪费大),要么存数据库(理解会断层)。Mind Lab提出"记忆扩散"——把整个对话历史当作记忆本身,通过"智能遗忘"来管理。
就像人开车会自动忽略路边广告牌,只记住重要的东西。AI也学会了:重要的对话细节保留,不重要的压缩或丢弃,始终把上下文控制在预算内。
这个方法在长期对话记忆基准测试Locomo上拿到93%准确率,目前最优。
Mind Lab 虽然刚成立,但是对于研发方向的判断还是非常准确的,在做的事情可能代表AI发展的下一个阶段。
过去十年AI靠"做大"突破,更大的模型、更多的数据。但部署到产品后发现,模型不会从用户身上学习,每次都重复同样的错误,这个瓶颈越来越明显。
Mind Lab提出的"体验型智能"其实是是让AI从"工具"变成"伙伴"。工具每次用完就复位,伙伴会记住你的习惯、从错误中学习、随时间越来越懂你,这也是他们当时做马卡龙应用的时候想完成的。
研究和产品共享同一个循环,用真实用户数据驱动算法迭代。这种"研究-产品共设计"的路子在AI领域还挺少见,但可能是让前沿技术真正落地的关键。
热门跟贴