打开网易新闻 查看精彩图片

通过数据+赛事的双轮驱动,乐聚补齐了机器人落地的短板。

提起机器人,你脑海里浮现的是什么?

是春晚舞台上整齐划一、舞姿曼妙的舞林高手?还是展会上只会机械地递咖啡、转圈圈的气氛组?

在很多人印象中的机器人,虽然 Demo 看起来无所不能,但真要让它去厨房帮你拿个杯子,它可能下一秒就在地毯上表演平地摔,或者对着墙角陷入漫长的深度思考。

这种大脑想得美,小脑跟不上的尴尬现象,被研究者戏称为“两层皮”:决策层(大脑)满腹经纶,但执行层(小脑)却步履蹒跚;或者运控极其精准,却完全不具备应变能力。两套系统各说各的话,一到复杂场景就宕机。

这种断层,正是制约人形机器人从实验室走向真实场景的最大藩篱。

近日,乐聚机器人发布的科研框架 2.0,试图通过一套深度集成的“大小脑一体化”逻辑,打破这道阻碍机器人走进现实世界的围墙。

01

具身机器人卡在哪?

要理解乐聚科研框架 2.0 的目标与作用,必须先看清行业的痛点。

目前具身智能研发面临着软硬割裂、流程碎片化、研究与实际应用落差困局。

一方面,行业普遍将机器人的功能拆分为两个独立系统:

大脑(大模型/任务规划):负责理解语义、拆解任务、自主决策。

小脑(运动控制):负责平衡、运动、多关节协同。

这种架构看似分工明确,实则隐患重重。

机器人的大脑决策与小脑运控往往互不通、不同步,导致其在处理长时序复杂任务时表现僵硬,难以实现类人级别的应变。

打开网易新闻 查看精彩图片

另一方面,研发工具链极度分散,从数据采集、仿真训练,到真机部署的各个环节互不兼容,研发时要将大量精力耗费在环境适配和重复造轮子上,阻碍了算法创新。

研究人员常面临采数 1 天、调参 3 天、部署卡壳 1 周的窘境,这种碎片化导致大量精力被浪费在环节衔接上,而非核心科研。

此外,高质量真机数据的稀缺与硬件尺寸的限制,也使得研发成果往往局限于实验室 Demo,难以跨越Sim2Real(仿真到真机)的横沟。

02

大小脑一体化,终结思考与动作的断层

乐聚科研框架 2.0 的核心解法非常明确:重构大小脑的协同逻辑,实现感知、决策、执行的端到端打通。

在这套框架下,大脑与小脑不再是两套说不同方言的系统。该框架统一兼容了全尺寸机器人平台,确保了从顶层决策到底层硬件执行的高速通讯协议对齐。

这种一体化设计意味着,机器人在动作执行的过程中,大脑实时感知环境变化,并动态调整小脑的运控参数。

机器人的能力也会进化,从机械执行,到类人作业。

依托于 OpenLET 社区与乐聚 LET 全身运控/灵巧操作数据集,乐聚的小脑系统可以稳定输出高动态、流畅的动作

与之相配合的是,大脑具备了极强的长程任务拆解与场景泛化能力。在调酒、分拣等多步骤复杂任务中,机器人可以自主规划路径,根据物品的摆放位置灵活调整抓取力度与角度。

打开网易新闻 查看精彩图片

长程任务全流程自主操作演示

现在很多研究机构使用的,是 1 米左右的中小尺寸机器人,但这会带来泛化难题:小机器人无法完成弯腰取地上的重物、伸手取高架上的零件等真人日常动作。这种空间受限的数据,在真实的工业或家庭场景中几乎没有落地价值。

乐聚科研框架 2.0 则引入了 1.70 米全尺寸全身实时遥操系统。

实时同步:支持真人动作的毫秒级实时同步。

全自由度:支持弯腰、下蹲、全身联动,完全贴合人类的作业姿态。

真实覆盖:1.7 米的身高确保了操作空间能覆盖真实的工业和家庭环境高度需求。

打开网易新闻 查看精彩图片

乐聚KUAVO5全尺寸全身遥操演示

通过这种全尺寸遥操,科研人员可以在更贴近现实的环境下采集数据、验证算法,让科研成果不再仅仅是实验室里的 Demo,而是直接面向可应用的真实任务。

以上种种转变,目的就是让机器人从简单的工具,升级为具备了思考+执行能力的智能体。

03

一站式工具全家桶:拒绝重复造轮子

具身智能研发的另一大门槛,在于极度碎片化的开发链条。与外界的理解相反,看似并不性感的工程适配,往往会占据大量研发时间,拖慢创新进度。

为了终结这种低效循环,乐聚科研框架 2.0 提供了一站式闭环工具链

在小脑运控工具上,乐聚提供了三大核心仓库:

▪ Leju-GMR: 专注于动作重定向。它能精准地将人类的动作映射到机器人的关节上,确保数据采集的原汁原味。

▪ LejuLab-Train:内置多种任务范式。实现零基础上手,完成机器人行走、倒地起身和舞蹈的场景任务,解决以往研究中训练范式不标准、难以快速上手的问题。

▪ LejuLab-Deploy: 实现了跨机型的一键式快速部署。无论是中尺寸的教学演示机,还是全尺寸的工业实操机,都能做到开箱即用。

打开网易新闻 查看精彩图片

基于真人舞蹈轨迹的强化学习训练演示

在大脑的具身模型长程任务规划和泛化能力上,提供一整套训练推理部署的工具链和数据集。框架配套了高质量的具身任务数据集,开发者可以利用这些数据直接进行模型训练。

数据永远是 AI 最好的老师,但在机器人领域,高质量的专家数据极度稀缺。

为此,科研框架2.0还提供全尺寸全身实时遥操技术,支持真机数据采集和模型二次训练

全身遥操提供的数据集、基准模型和部署框架,用户可以进行二次训练,部署到真机上进行高质量操作数据的采集。

这种全链路工具链的价值在于,它将开发者从底层代码的泥潭中拉了出来,让他们能专注在更具价值的算法创新上。

04

补齐落地最后一块拼图

有了框架和硬件,接下来就是如何让这套系统跑起来。

乐聚通过数据+赛事的双轮驱动,补齐了落地的短板。

就在前不久,开放原子具身智能开源数据集社区正式启动,并发布 OpenLET 全身运控数据集。该社区由开放原子开源基金会发起建立,乐聚机器人牵头建设,联合了一众具身智能企业和科研院校,是一个聚焦具身智能开源数据集和算法的社区。

打开网易新闻 查看精彩图片

目前,针对真机数据采集成本高、多模态数据零散的痛点,乐聚提供了开源的数据底座,里面包含了6 万+分钟的开源真机数据。这些数据覆盖了工业、商业、家庭等117 项原子技能,涵盖了力控、触觉、全身关节等全方位维度。

此外,乐聚还对接ICRA、天池、机器人及人工智能、挑战杯等高含金量赛事,为科研团队提供真机评测资源。

这种数据训练—算法迭代—赛事验证—产业转化的闭环,让算法不再只是论文里的跑分,而是能真正走出实验室,进入工厂和家庭。

可以看出,乐聚科研框架 2.0 的发布,不仅是一次简单的工具迭代,更是对机器人研发范式的重新思考。

通过将大脑的逻辑能力与小脑的运动能力深度整合,并辅以全尺寸硬件支撑和海量开源数据,乐聚正在实现普通人对机器人的最终幻想:让它不再是冷冰冰的执行机器,而是能够通过学习和思考,最终成为在复杂现实世界中工作的主体。

当大脑与肢体终于不再割裂,当机器人能够像人类一样,将思考与动作无缝融合,那些曾经只存在于科幻电影中的应用场景,才真正具备了商业化落地的可能。

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!

公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。