IT之家 2 月 14 日消息,2 月 13 日,地平线正式宣布其 HoloBrain-0 基座模型及框架全面开源。本次开源不仅包括 HoloBrain-0 核心算法,地平线同步开放完整基础设施 RoboOrchard。
IT之家从官方介绍获悉,从基础模型研究迈向可靠的机器人真机部署,依然面临着“最后一公里”的巨大鸿沟。为此,地平线正式开源 HoloBrain-0,一个专为具身智能设计的全栈 Vision-Language-Action (VLA) 框架。
不同于传统 VLA 模型仅依赖“视觉到动作”的黑盒映射,HoloBrain-0 首创性地在架构中显式注入了“具身先验”,将多视角相机参数与机器人运动学结构等机器人本体相关的先验信息显式融入模型,大幅提升其三维空间理解能力,使模型真正具备了统一的 3D 空间感知与跨本体控制能力。
HoloBrain-0 能够灵活适配单机械臂、双机械臂、移动机器人乃至于人类数据等多种机器人形态,无论从柔软衣物的灵巧折叠,还是到未知物体的通用抓取,HoloBrain-0 都展现了卓越的泛化能力。
地平线本次不仅开源了基座模型,更带来了只有 0.2B 参数的端侧友好版本以及全栈基础设施 RoboOrchard,通过这一整套“开箱即用”的开源生态,大幅降低具身智能的研发门槛。
在预训练阶段,HoloBrain 融合了多本体遥操作数据、人类视频数据以及仿真数据开展联合训练,使模型能够充分学习异构数据中隐含的动作流形。通过后训练,HoloBrain 在 RoboTwin 2.0、LIBERO、GenieSim 等多个仿真基准测试中取得了业界领先的成果,并在多样化的真实机器人任务中展现出良好的稳健性。
在硬件适配层面,HoloBrain 的轻量化 GD 版本 (0.2B) 可高效适配地瓜机器人 RDK S100 机器人开发者套件,未来将进一步释放端侧算力潜力,推动具身智能模型在端侧硬件平台上的规模化部署。
技术报告链接:https://arxiv.org/abs/2602.12062
开源模型代码库:https://github.com/HorizonRobotics/RoboOrchardLab
真机基础设施代码库:https://github.com/HorizonRobotics/RoboOrchard
项目主页:https://horizonrobotics.github.io/robot_lab/holobrain
热门跟贴