4月20日消息,戴盟机器人联合谷歌DeepMind、中国移动、新加坡国立大学、香港科技大学、北京大学、清华大学等数十家全球顶尖学术机构与知名企业,共同发布了全球规模最大的含触觉全模态物理世界数据集“Daimon Infinity”。
打开网易新闻 查看精彩图片
据悉,该数据集整合了触觉、视觉、动作轨迹、执行动作、语音文本等多个维度的信息,预计在今年内其总规模将达到数百万小时。其中,首批10000小时数据已正式开源,并上线阿里魔搭社区。
据了解,在具身智能领域,数据的重要性已成为行业共识。Daimon Infinity数据集旨在通过构建高质量、大规模的数据集,以解决当前制约具身智能技术落地应用的数据缺口问题。该数据集的核心特点之一在于包含了高质量的触觉数据。触觉信息能够为机器人提供直接的物理反馈,有效弥补视觉感知在遮挡、光线不足等复杂情况下的局限性,有助于机器人完成更精准、稳定的操作。戴盟机器人方面表示,基于其视触觉融合技术路线,该数据集提供的触觉数据覆盖了接触力、形变、滑移趋势、物体纹理材质等十多种模态信息。
据介绍,Daimon Infinity的另一个关键特征在于其数据采集源于真实场景。该团队通过自研的轻量化、便携式采集设备,构建了外发式数据采集网络,使数据采集工作能够深入家庭、户外、工厂等多样化、非标准化的真实环境,从而获取更丰富的操作数据,支持模型的泛化能力训练。该模式也使得数据集具备了大规模扩展的生产能力。
据了解,通过该数据集对具身模型进行预训练,可在精细操作任务中实现约10倍的训练效率提升。此次由多家行业头部机构联合共建并开源部分数据,被业界视为有助于避免数据采集的重复投入,并可能推动相关技术标准的探索与建立,加速具身智能从实验室研究向产业应用落地的进程。(崔玉贤)
热门跟贴