近日,西湖机器人发布的 “身外化身” 系统视频引发行业关注:穿戴诺亦腾 PN Studio 惯性动作捕捉设备的演员做出抬手、转身、跳跃等诸多复杂动作,宇树 G1 机器人随即同步复刻,实现如电影《环太平洋》中 “人机共舞” 的实时交互效果。而西湖机器人是如何实现这一“实时模仿” 奇迹的呢?让我们通过这篇文章为您揭秘。
产学研共振:顶尖团队的技术协同
西湖机器人作为西湖大学人工智能领域首个自主成果转化项目,由国家科技创新 2030 重大项目首席科学家、西湖大学王东林教授与工学院副院长张岳教授联合创立,其研发的 “身外化身” 系统,旨在通过其开发的全球首个人形机器人的通用动作预训练大模型 GAE(General Action Expert),打破人形机器人动作预设局限,像控制自己的四肢一样灵活的控制机器人做出任意想要的动作。而这一创新构想的落地,离不开高精度动捕技术的支撑。
“诺亦腾动捕设备是实现‘实时模仿’的关键载体。” 西湖机器人技术团队表示。西湖机器人技术团队认为:诺亦腾动捕产品适配性与功能性极强,并且穿戴式设计贴合人体,精准覆盖主要关节,可实时稳定采集人体全关节轨迹与角度信息,其穿戴式设计能紧密贴合身体,确保弯腰、屈膝等复杂动作的数据完整性。最关键的是,在运动信息映射环节,诺亦腾的设备数据格式与主流系统兼容性好,无需复杂适配,就可以快速将信息精准映射到机器人骨架并生成运动指令,延迟低、响应快—— 这与西湖机器人 “强化学习 + 模仿学习” 的算法体系形成完美互补,为 GAE 模型提供了高质量的动作训练数据基础。
技术破界:从数据采集到动作复刻的全链路赋能
在 “身外化身”系统的技术闭环中,诺亦腾动捕技术构建了从数据采集到指令生成的关键链路:
1.数据采集环节:PN Studio 通过 IMU 传感器实时捕捉演员动作,将关节运动数据以高频次传输至系统;
2.数据适配环节:设备输出的数据格式与西湖机器人系统高度兼容,无需额外开发适配接口,即可快速完成数据解析,并精准映射到宇树 G1 机器人的骨架结构上;
3.指令执行环节:诺亦腾动捕产品的数据传输延迟被控制在毫秒级,配合西湖机器人 “强化学习 + 模仿学习” 的算法,最终实现 “人动即机动” 的实时效果。
在西湖机器人发布的“身外化身”系统视频中,已经清晰地展现了这一成果:正常人能完成的基本动作,机器人通过 PN Studio动捕设备传输的数据,都能模仿复刻。这不仅验证了西湖机器人 GAE 模型的强大,更凸显了诺亦腾惯性动捕技术的“实用价值”。
场景落地:从实验室走向高危一线
“我们的目标是让机器人成为人类的‘延伸肢体’。” 西湖机器人团队指出,GAE 模型的终极价值在于推动机器人进入人类难以涉足的场景。在未来的火场救灾场景中,消防员可通过 PN Studio 远程操控机器人穿梭于浓烟环境,设备采集的步态、抓取等动作数据将实时驱动机器人完成破拆、搜救任务;在核污染区域,操作人员的精细动作经动捕系统转化为指令后,机器人能精准执行检测、样本采集等作业 —— 这与诺亦腾在具身智能领域的布局高度契合。作为全球屈指可数的全谱系动捕动作捕捉技术开放商,诺亦腾已广泛服务于具身智能、科研教学、工业仿真、数字媒体、医疗健康等众多领域客户,并积累了丰富的场景适配经验。
从实验室的技术验证,到未来高危场景的落地,诺亦腾惯性动捕技术,正以 “精准、稳定、适配性强” 的核心优势,为西湖机器人 “身外化身” 系统保驾护航。而这场“人机协同” 的探索,不仅是西湖机器人的技术突破,更是诺亦腾惯性动捕技术 “赋能前沿科技” 的又一有力证明 —— 毕竟,当 “让机器人成为人类延伸肢体” 的愿景照进现实时,背后必然有扎实的技术在默默支撑。
热门跟贴