机器人前瞻5月6日报道,近日,RoboScience机器科学宣布完成十亿元A轮融资。
此前,RoboScience已完成3轮融资,累计融资额超3亿元:2025年3月完成数千万元种子轮融资,投资方为零一创投等;2025年7月完成近2亿元天使轮融资,投资方涵盖京东领投、招商局创投、零一创投、商汤国香资本等;2026年2月完成数亿元Pre-A轮融资,投资方包括普华资本、达晨财智、长石资本、香港慧科科创、天启资本、招商局创投、零一创投等。
RoboScience专注具身智能技术研发,于2024年成立,总部位于北京市海淀区。
该公司以打造具身大模型为目标,推出了其自主研发的端到端VLOA(Vision-Language-Object-Action)大模型。
VLOA大模型基于海量互联网视频数据进行预训练。RoboScience团队称,他们已积累超过100万小时数据集(上千万video clips),该数据集以物体为中心,与高维多模态操作相关,并以每周数十万小时的速度持续增长。
此外,该模型融合了具身世界模型与具身操作大模型,致力于打造一个可适用于任何任务、任何对象与任何机器人的通用智能系统。
1、具身世界模型
具身世界模型的核心是理解物理世界并生成可执行的未来规划。
该模型具备三项核心能力:确保所有任务规划均能满足真实世界的物理约束;实现对未来连续任务的预测,并生成多解的概率分布和对应的预测置信度建模;在复杂长周期任务中,实现轨迹预测的时空全局一致性。
2、具身操作大模型
该模型致力于通过“物理引擎-仿真数据-端到端训练”闭环,解决泛化性与灵巧操作难题。
在数据支撑上,RoboScience通过自研的多模态物理引擎,积累了10Bmanipulation操作数据集(100亿次全空间物体的manipulation操作数据)。
这款模型的核心能力在于:支持刚体、铰链体、1D/2D/3D可形变体等全空间物体的各类操作任务;支持跨本体操作,且适用于各种不同类型的机器人及末端执行器;支持闭环操作(closed-loop);支持含视觉、触觉、力觉等多模态感知数据。
据悉,RoboScience的核心团队成员来自斯坦福、中科大、港大、上交大、新国立等国内外高校以及苹果、商汤、科沃斯等海内外企业。
RoboScience的创始人兼CEO田野,本科毕业于中科大物理学院,硕士毕业于斯坦福大学AI Lab并师从吴恩达,曾任苹果公司AI Platform技术负责人。
据RoboScience官网介绍,田野任职苹果期间,曾带领团队打造了被誉为“苹果的PyTorch与CUDA”的核心基础设施平台,并推动多项关键AI技术在苹果生态和App Store中的大规模落地。
创始人兼首席科学家邵林,博士毕业于斯坦福大学AI Lab,为新加坡国立大学计算机系助理教授,他提出的深度神经网络架构UniGrasp已成为数据驱动灵巧手抓取的基准性方法。
RoboScience透露,本轮融资资金将用于研发VLOA大模型技术、推进机器人本体的研发与量产以及加速通用具身智能解决方案的规模化落地。
热门跟贴