已向行业开放10000小时数据,将于年内扩展至数百万小时。
作者 |许丽思
编辑 |漠影
全球最大规模含触觉物理世界具身数据集,来了!
机器人前瞻4月16日报道,昨天,戴盟机器人联合Google DeepMind、中国移动、新加坡国立大学、香港科技大学、上海交通大学等海内外数十家学术机构与知名企业,发布物理世界具身数据集Daimon-Infinity,该数据集包含了超高分辨率触觉全模态,规模为全球最大。
这是业内最高质量的触觉数据,包含接触力、接触形变、接触状态,及物体材质与形貌、接触滑移、表面纹理等高密度全模态触觉信息。同时,该数据集跨本体通用,基于其预训练的模型,可将训练效率提升10倍。
Daimon-Infinity已向行业开放10000小时数据,且将于年内扩展至数百万小时,包含近十亿条具身数据。目前,首批1000小时数据已经置顶在阿里魔搭社区。
当下行业正大力布局世界模型,但世界模型究竟需要怎样的数据支撑?答案正是具备真实物理交互属性的信息 ,这也是戴盟聚焦于物理交互属性、以触觉补齐物理世界全模态感知的核心原因。
真正决定机器人能否进入复杂真实世界的,正是这部分长期稀缺、采集艰难、处理复杂的物理交互信息。戴盟将高密度、全模态触觉信息引入具身智能的数据主干,补上机器人进入复杂真实世界最关键的一块感知拼图。
作为率先提出VTLA架构的创新者,戴盟这次想借Daimon-Infinity争夺的,并不只是一个新数据集的话语权,更是具身智能真实世界数据标准的定义权。
01.
把触觉数据做到行业最高质量,
还能适配数十种机器人、主流模型
Daimon-Infinity最核心的突破,在于提供了当前行业内最高质量的触觉数据,能够将长期缺失的物理交互信息带进模型的训练体系。
这套数据集依托戴盟自研的二指夹爪和五指手套采集设备,结合含11万感知单元、120Hz高分辨率视触觉传感器,以及鱼眼相机、编码器、IMU、双目相机等硬件,能够同步提供触觉、视觉、动作轨迹、执行动作、语音文本等全维度信息。尤其是在触觉方面,包含了接触力、接触形变、接触状态,及物体材质与形貌、接触滑移、表面纹理等高密度全模态触觉信息。
这些触觉数据之所以重要,是因为它能有效弥补视觉在遮挡、错觉和接触细节判断上的天然盲区和感知错觉,决定机器人能否完成稳定而精细的操作。
这意味着,机器人不再依赖视觉表象学习,而是基于真实物理交互特征训练,真正理解物体物理属性。跨物体、跨材质、跨场景的泛化能力,才有了更扎实的底层支撑。
以工厂中的精密装配为例,机器人需要在接触瞬间不断修正自己的动作,力度大一点可能卡死,角度偏一点可能弄坏零件。拥有接触力、形变、滑移等信息后,模型就能快速判断动作有没有做到位,有问题的话及时调整末端角度和执行力度。
所以,对于具身智能来说,这种高密度全模态触觉信息能力不只是让机器人的手更巧了,还更具备可落地部署的工程化能力,能够在突发扰动下保持任务连续性。
Daimon-Infinity从一开始就明确面向主流模型与跨本体应用设计,这意味着这套数据有机会从一家公司的资产走向跨机器人通用底座。
该数据集采用高度标准化的数据格式规范,支持主流模型需求。模型基于其预训练后,能够仅用十分之一的数据量就完成轴孔装配、污痕擦拭、果蔬切削等多项精细操作任务,驱动数十种机器人完成自主操作任务,把训练效率提升10倍。
Daimon-Infinity的出现,可以有效解决具身智能数据不通用、训练成本高、落地周期长的行业痛点,为机器人从实验室演示走向规模化应用提供了一套最适合跨本体复用的标准化数据底座。
02.
搭建全球最大规模外发式数采网络,
打造可持续供给的高质量数据生产力
数据质量之外,另一个重要的问题是数据如何实现持续供给。
过去,具身智能数据采集依赖封闭式采集工厂。这种模式流程可控,环境稳定,便于重复采样,但是成本高、覆盖面有限,对真实世界那些零碎、非标、变化快的操作场景捕捉能力不足。
戴盟这次给出的解法,是搭建全球最大规模的外发式具身数据采集网络,把数据生产从封闭场地推向真实、多变、分布式的场景之中。
依托轻量化设备和分布式数采体系,采集员可以进入工业装配、智慧物流、养老护理、家居服务、科研实验、餐饮零售及户外空间等场景,实现不受空间限制的数据获取,年产数据规模可达数百万小时。
具身智能数据开始摆脱“建一个更大的采集工厂”这种单一路径,转向了更接近互联网时代的网络化生产方式。真实世界中的物理交互,本来就发生在无数细碎而具体的环境里,这套外发式数采范式不仅提升了数据的多样性,也让具身数据供给第一次具备了可持续扩张、可长期迭代的基础。
支撑这套外发式范式运转的,还有戴盟搭建的全链路数据处理引擎。
从前端采集开始,这套引擎通过软硬件协同实现毫秒级对齐;在上传与存储环节,使用高效编码压缩和序列化压缩,在保持精度的同时降低存储成本;数据进入云端后,继续进行双手运动轨迹恢复、模态提取和多维标注,最终把触觉、视觉、动作等信息融合成可直接用于训练的高质量数据资产。
这套流程破解了具身智能从实验室走向产线的工程化难题,为数据集的规模化应用、高效训练与商业化落地提供了支撑。
从外发式数采网络到全链路处理引擎,戴盟不仅解决了高质量的真实数据从哪里持续来,还解决了这些数据能不能被稳定处理、标注、用于模型训练,把真实的触觉数据从稀缺资源逐渐变成可持续供给的基础设施。
03.
10000小时开源,
把真实物理世界数据推向行业公共底座
真实数据尤其是包含物理交互信息的真实数据,正在成为具身智能迈向落地和泛化的核心分水岭。
具体来说,Physical Intelligence的系列研究成果已经表明,具身智能的泛化上限与真实物理交互数据及跨本体多样数据密切相关,机器人通过在真实环境中与物体、环境进行交互,学习到物体属性、物理规律和任务执行的实际约束,能够对真实世界有更强的适应力。
尽管不少头部企业早已在真实数据上进行长期投入和实践,但这些数据大多停留在内部闭环之中,没办法成为整个行业可共享的、开放的公共资源。
对中小团队和科研机构来说,高质量真实数据采集门槛高、成本重,往往还没开始做模型训练,就先被数据基础建设挡在门外。
▲物品词云图
Daimon-Infinity的开源,在这样的背景下就显得格外重要。据了解,Daimon-Infinity开源数据集规模达10000小时,包含数百万条真实操作轨迹,覆盖超2000任务类别,涉及超过2000项人类技能、超300种真实物品等。其中,时长超过40秒的长序列任务超过1400个,包含如抓放、插入、堆叠等高频手物交互任务,堪称行业最大手笔的触觉数据开源行动。
目前,戴盟已将首批1000小时真实世界数据上线阿里魔搭社区,以实际行动拉开具身智能数据共建生态的序幕。
Daimon-Infinity的开源,能够让更多企业跳出无高质量真实数据可用的尴尬处境,聚焦于模型算法优化、场景应用落地等核心环节,而不是重复投入数据采集基础建设。
更关键的是,Daimon-Infinity也有望让中小团队与科研机构以低成本接入优质具身数据资源,为通用具身智能的跃迁筑牢开放共享的数据根基。
04.
结语:从各自造轮子到共建底座,
具身智能走向新阶段
随着具身智能行业逐步走向真实落地,竞争的核心正在加速转向数据体系本身,尤其是谁能持续获得、处理并开放高质量的真实物理交互数据。
戴盟这次推出Daimon-Infinity,就是在回答行业长期发展中非常关键的一个问题:究竟能否建立起一套可持续供给、跨本体通用、开放共享的高质量真实世界数据底座。
如果这条路径能够继续跑通,它带来的将不只是个别企业模型能力的提升,更可能推动整个具身智能行业从各自造轮子的分散探索,走向围绕真实数据标准、训练效率和开放生态展开的新阶段竞争。
热门跟贴