机器之心发布
「人类视频,是机器人理解并与物理世界交互的最关键路径。」
这句如今逐渐成为行业共识的判断,其实最早来自一家国内具身智能初创公司 ——BeingBeyond(智在无界)。
在过去半年中,这家公司完成了「海量人类视频训练」的两个重要里程碑:相继发布了全球首个基于1000 小时1 万小时人类视频预训练的具身模型 —— Being-H0 与 H0.5,率先开辟了「大规模人类视频驱动具身学习」的技术路线。
随后,NVIDIA 的 EgoScale、Generalist AI 的 GEN-1 等海外工作陆续跟进,也从侧面印证了这一方向的前瞻性。
作为人类视频学习路线的开创者,4 月 14 日,智在无界发布第三代旗舰模型 Being-H0.7,该模型将数据规模扩展至20 万小时人类视频,并提出一种全新的范式 ——基于潜空间推理的世界模型。在 6 项国际性权威评测中,H0.7 综合排名全球第一(其中 4 项登顶),同时也是首个覆盖跨本体、跨场景、连续动态、流体、柔性物体、物理规律与上下文推理等七大关键维度的通用世界模型。
- 主页链接:
- https://research.beingbeyond.com/being-h07
- 论文链接:
- https://research.beingbeyond.com/projects/being-h07/being-h07.pdf
Past・Present・Future
世界模型的分野
「世界模型(World Model)」最初其实是一个非常朴素的概念:给定当前状态和动作,预测下一时刻的状态。
早在 2018 年, Jürgen Schmidhuber 就在其《World Models》中系统阐述了用神经网络建模动力学的思路。但随着生成模型的发展,一个逐渐流行的误解也随之出现:世界模型 = 预测未来画面(逐像素生成)。
事实上,无论是 Schmidhuber 的原始设想,还是 Yann LeCun 团队在 JEPA (Joint Embedding Predictive Architecture),都从未将「像素级预测」视为核心目标。
原因很简单,真实世界的「状态」,远远不等同于像素。物体之间的空间关系、柔性物体的形变、液体的流动、摩擦与重力的作用…… 这些决定物理世界运行的关键因素,并不能通过逐像素的图像完全表达。世界模型不应执着于复现「画面会变成什么样」,而应学会理解「世界为什么会这样变化」。
从产业角度看,NVIDIA 当前的世界模型工作在一定程度上回归到视频生成路线,这与其「算力提供方」的角色天然形成协同,但对具身智能而言,这并非最优路径。
智在无界认为,一个理想的世界模型应同时具备两个核心能力:物理世界理解(Physical Understanding)与物理交互(Physical Interaction)。
现有 AI 模型范式在「物理理解–交互」坐标系中的能力分布,Being-H0.7 在海量人类数据驱动下显著拓展了世界模型的能力边界。
按照这一标准回看过去几年的 AI 发展路径:从 LLM 到 VLM,再到 AIGC 时代的 Sora、Genie 3,这些模型对视觉世界的理解不断加深,但始终停留在二维感知层面,缺乏与真实物理世界的交互能力。
近几年,随着 VLA 路线的兴起,π0.5、GR00T、Being-H0.5 等模型通过在视觉语言模型上微调,直接输出机器人动作。虽然这让模型具备了执行任务的能力,但也带来了新的问题:在训练过程中,多模态理解能力往往被削弱,模型容易过拟合,很多时候是在「背答案」,而非真正基于环境做出判断。
为弥补这一缺陷,以英伟达 Cosmos-Policy、DreamZero 为代表的世界模型路线,尝试通过视频生成来建模交互。但这类方法不仅计算开销巨大、难以实时运行,而且基于二维视觉表征的方式,本质上仍然难以真正理解物理世界。
在这样的背景下,LeCun (AMI Labs) 提出,应构建更加基础的世界模型,以提升对真实世界的理解能力。而智在无界则更进一步,提出基于潜空间推理的全新范式,同时拓展世界模型在「理解」和「交互」两个维度上的能力。
20 万小时人类视频
H0.7 的「通用世界模型基因」
传统 VLA 模型只能基于当前观测预测动作,缺乏对未来变化的建模能力;而视频生成式世界模型则依赖像素级预测来「想象」未来,但不仅难以抽象物理规律,还带来了巨大的计算负担。
事实上,人类视觉系统天然会过滤静态信息、强化对动态变化的感知,大脑中也存在专门处理运动的区域,用于自动抑制背景干扰。基于这一认知,Being-H0.7 不再追求像素级重建,而是试图学习一种更高效的能力 —— 类似「物理直觉」的快速判断机制。
因此,Being-H0.7 选择了一条不同路径:不再显式生成未来画面,而是提炼那些真正影响未来行动的关键信息。
不同于 VLA 从当前观察直接映射到动作,或视频生成式世界模型引入庞大的预测模块,Being-H0.7 在模型内部引入了一组可学习的中间变量(latent queries),作为一块预留的「思考空间」(latent reasoning)。在前向的过程中,模型将当前观测、任务目标以及对未来可能演化的判断压缩至这一空间,并由其统一指导最终的动作生成。
但这一「思考空间」本身并不天然具备对未来的建模能力。为此,Being-H0.7 采用了双分支设计:一条路径在「未来可见」的条件下(后验视角,posterior branch),引导模型学习哪些中间判断真正有助于动作决策;另一条路径在「不可见未来」的真实部署条件下(先验视角,prior branch),约束模型仅基于当前观测形成尽可能一致的判断。
不同于一些工作简单地将未来信息单向注入世界模型,Being-H0.7 在这两种视角之间建立持续对齐与相互约束:后验分支提供未来演化的监督信号,先验分支严格受限于真实可观测信息。通过不断对齐,模型逐渐学会在「思考空间」中,自适应地根据当前情景,推理对后续行动真正有用的信息。
这种推理能力,本质上接近于人类的「物理直觉」。现实世界中,人类并不会逐帧预测未来画面,而是快速判断:物体接下来会朝哪个方向运动?接触关系会如何变化?施加的力会带来稳定还是失衡?交互过程会推进目标还是偏离?
人类之所以能够在很少试错的情况下掌握这些能力,是因为这种「直觉」早已在长期进化中内化为本能。
相比之下,仅依赖实验室数据的机器人系统很难获得这种能力,更难实现泛化。基于这一洞察,智在无界构建了全球少有的 20 万小时人类视频数据集,并据此训练 Being-H0.7,使模型获得类似「预训练基因」的能力,从而真正理解并改变物理世界。
在实现上,H0.7 的结构反而相对简洁:两路视角通过注意力掩码(attention mask)共享主干上下文,只在 latent queries 处进行对齐,并共同接受动作监督。未来信息无需解码为未来图像,而以紧凑表征参与训练。相比 Cosmos Policy 这类视频生成式世界模型,H0.7 的训练成本不到其 1%。
另外一个强大的优势则是推理速度的显著提升,是 Fast-WAM 的 11 倍,是 imagine-then-execute 这类生成式世界模型的 40 倍以上,Being-H0.7是世界上第一个能够在端侧设备上实时稳定部署的世界模型。强大的推理能力赋予了 H0.7 对于外界动态快速的感知能力,能完成如判断滑落小球轨迹、高速流水线包装、液体准确倾倒等这些之前 VLA、世界模型都难以胜任的任务。
在评测方面,不同于多数模型只在单一榜单评测,Being-H0.7 在 6 项全球权威评测榜单上综合排名世界第一,是目前覆盖范围最广的具身世界模型。在跨本体、跨场景、连续动态、流体、柔性物体、物理规律与上下文推理等七大关键维度上,Being-H0.7 均展现出领先的物理理解与泛化能力,其能够完成复杂的多物体协作、长时序规划与精细物理交互任务。
为直观地展示 Being-H0.7「思考空间」中所包含的信息,可以进一步将观测图像与 Being-H0.7 先验分支的中间变量共同作为条件,基于视频模型对任务未来状态进行可视化预测。
尽管 Being-H0.7 在推理时并不显式进行像素级未来重建,其隐空间表征中已经蕴含了对未来世界状态的预测,体现出「隐式具身世界模型」的核心特征。
真机实验部分,Being-H0.7 借助世界模型架构,展现出了令人惊喜的表现。做到了更精准的空间感知、物理理解和运动推理能力,更具体地讲,实现了以下几种物理世界级的理解和交互能力:
- 动态轨迹预测:在高速动态场景下,Being-H0.7 借助物理世界知识和快速推理,能够预测物体轨迹并精准完成物理世界交互;
- 物理规律理解:Being-H0.7 通过大规模预训练构建了丰富的世界知识,能够准确理解流体物理规律并完成复杂任务指令;
- 运动推理能力:Being-H0.7 具备物理世界下的动力学推理能力,能够准确推理物体交互后的空间方位并规划好动作。
基于以上能力,Being-H0.7 能够完成高速运动物体的追踪和接取、精细流体控制、柔性物体交互等高挑战性的任务。
文中视频链接:https://mp.weixin.qq.com/s/4GBE4mjEPHVakZ0sGbuKlg
世界模型的再定义:从 AMI Labs 到 BeingBeyond
Our main goal is to build intelligent systems that understand the real world —— AMI Labs
面对这一愿景,作为开启「大规模人类视频驱动具身学习」这一路线的先行者,BeingBeyond 创始人卢宗青表示:
理解世界不够,必须学会改变世界。物理世界的理解与交互是不可分割的。如果一个模型只学习「世界会变成什么样」,而不学习「采取什么行动会导致这种变化」,它本质上仍然是一个被动观察者,容易退化为「缸中之脑」。
因此,不同于 LeCun,智在无界采用的技术路径是:同时建模状态变化与动作生成(joint prediction of state and action)。在数据层面,这一设计自然对应于第一人称人类视频,它不仅提供视觉观测,同时也包含了人类动作。这样的数据可规模化获取,天然适用于具身学习。因而,我认为,大规模人类视频是通向具身基础模型的一条可行路径,使机器人能够从人类行为中学习如何理解并作用于物理世界。
热门跟贴