迪士尼研究院最近放出一个叫 ReActor 的项目,简单说就是让人类动作能被机器人"学"过去——不管这机器人是人形还是四足,体型差多少。这个方向本身不算新,但他们解决了一些老问题:脚打滑、身体悬空、关节穿模这些物理 bug。
我看完技术摘要后的第一反应是:这像是给动作捕捉和机器人控制之间搭了一座桥,而且桥的两头同时在施工。
ReActor 的核心是个双层优化框架。上层负责把参考动作"翻译"成适合目标机器人骨骼的版本,下层同时用强化学习训练一个跟踪策略。两个过程并行,不是先改动作再学控制,而是一起迭代。论文里提到,他们推导了一种近似梯度来让上层优化可解,这样就不需要人工调参去找最优设置。
输入端的要求很松:只需要少量语义上的刚体对应点,比如人的髋部对应机器人的哪个关节,系统自己就能算出怎么映射最合理。输出端直接对接物理仿真,生成的动作在动力学上是可行的, downstream 的模仿学习会更稳。
演示里展示了几个跨度很大的例子:人形机器人做动态动作,四足机器人跑跳。这些形态和人类的差异足够大,能验证方法的泛化性。团队名单里有 David Müller、Agon Serifi、Sammy Christen、Ruben Grandia、Espen Knoop 和 Moritz Bächer,论文标题是《ReActor: Reinforcement Learning for Physics-Aware Motion Retargeting》。
目前能确认的信息就到这。SIGGRAPH 2026 是个可能的展示场合,但官方没给准信。至于迪士尼会不会把这个技术用在乐园机器人、影视拍摄或者其他场景,现在也没有说法。
值得注意的反而不是技术细节,而是这个项目的定位——它属于迪士尼研究院"多年的机器人探索工作"的一部分。这意味着它不是某个产品线的预热,而是基础研究层面的积累。对于关注这个领域的人来说,论文本身可能比"迪士尼又要造什么"更有参考价值。
最后列一下硬信息,方便需要的人追踪:版本状态是研究项目(非商用产品),核心贡献是双层优化+强化学习的联合框架,输入需求为稀疏语义对应点,验证场景包括人形和四足机器人硬件。就这些。
热门跟贴