打开网易新闻 查看精彩图片

高德昨天干了件挺有意思的事——把自家研发的机器人"通用大脑"ABot-M0全量开源了。官方说法是"全球首个统一架构的具身操作基座模型",翻译成人话就是:一个AI模型,能同时操控机械臂、轮式机器人、人形机器人等各种形态的硬件,不用再为每种机器人单独调教一套系统。

这东西在业内的几个权威测试里拿了第一。Libero-Plus基准上任务成功率80.5%,比之前的标杆方案Pi0高出近30个百分点。相当于别人还在考及格线,它已经奔着优秀去了。

开源的内容很实在,分三块:数据、算法、模型。

数据层面,高德甩出了目前规模最大的通用机器人数据集UniACT,600多万条真实操作轨迹,附带从原始数据到训练数据的全套处理流程。过去机器人数据分散在全球各地,格式五花八门,就像不同国家的人各说各的方言;这套统一标准相当于给所有人配了同声传译,数据终于能互通了。

算法层面有个巧思。传统方法让模型在噪声里反复试错预测动作,效率低还不稳定;高德搞了个"动作流形学习"(AML),让模型直接预测物理上可行的动作序列,跳过试错环节。同时用了双流感知架构:一条流走Qwen3-VL负责语义理解,另一条流通过可插拔的3D模块补几何信息,弥补纯视觉模型在空间推理上的先天不足。

模型层面直接给了端到端的预训练模型和工具链,开发者拿过来就能往工业、家庭场景里套。高德想验证的"一个大脑驱动多种形态",现在有了开源实证。

项目代码和论文都已公开。有意思的是,这套系统里的视觉语言模型用的是阿里自家的Qwen3-VL——地图厂商做机器人,最后绕回自家生态,也算顺理成章。