打开网易新闻 查看精彩图片

这项由哈尔滨工业大学和上海交通大学联合完成的研究发表于2026年的计算机视觉顶级会议论文集,论文编号为arXiv:2603.25791v1。对该研究感兴趣的读者可以通过这个编号查询完整论文内容。

当你看到有人用剪刀剪纸,或者打开笔记本电脑时,你的大脑能够毫不费力地理解手部动作、物体的运动轨迹,以及两者之间的精确配合。但是对于计算机来说,这种看似简单的"观察理解"却是一个极其复杂的挑战。现在,一支来自哈尔滨工业大学和上海交通大学的研究团队开发出了一个名为ArtHOI的系统,它能够仅仅通过观看一段普通的手机视频,就重建出手部和可动物体之间复杂互动的完整三维过程。

这项研究的创新之处在于,它是全球首个能够从单个摄像头拍摄的视频中,完整重建手部与可活动物体(比如剪刀、眼镜、笔记本电脑等)互动全过程的系统。以往的研究要么只能处理固定不动的物体,要么需要事先用多个摄像头对物体进行全方位扫描,这在实际应用中极不方便。而ArtHOI系统就像一位经验丰富的侦探,能够从一段视频中的蛛丝马迹,推断出整个互动过程的每一个细节。

研究团队面临的挑战就像是要求一个人仅仅通过观看一部黑白无声电影,就要完全理解剧情、角色关系和每个动作的含义。计算机需要同时解决几个难题:首先要识别出视频中的手和物体,然后理解物体的三维结构,接着追踪物体各个部分的运动轨迹,最后还要判断手指与物体的接触关系。这就好比要求一个从未见过剪刀的人,通过观看别人使用剪刀的视频,不仅要学会剪刀的形状和结构,还要理解两片刀片是如何配合运动的,以及手指是如何控制这种运动的。

为了解决这个问题,研究团队采用了一种类似"多专家会诊"的方法。他们将多个已经训练好的AI模型(称为"基础模型")组合起来,每个模型都负责解决问题的一个方面。比如有一个模型专门负责从图像生成三维物体,另一个模型专门负责估算深度信息,还有一个模型专门负责识别手部动作。但是,简单地把这些模型放在一起并不能解决问题,就像几个专家各说各话,需要有人来协调和整合他们的意见。

ArtHOI系统的核心创新在于开发了两个关键技术来协调这些"专家意见"。第一个技术叫做"自适应采样优化"(ASR),它的作用就像一个经验丰富的侦探在案发现场收集证据。当AI模型从视频中生成一个三维物体时,这个物体通常是一个标准化的版本,既不知道真实尺寸,也不知道在空间中的确切位置。ASR技术就像是在现场进行反复测量和验证,通过对比视频中的深度信息和物体轮廓,逐步确定物体的真实大小和精确位置。

第二个关键技术更加巧妙,它利用了最新的多模态大语言模型来理解手与物体的接触关系。这就像请一位经验丰富的观察者来解读视频内容,判断"这一刻手指是否真的触碰到了剪刀的把手","究竟是拇指和食指在用力,还是所有手指都参与了动作"。传统的计算机视觉方法很难做出这种细致的判断,但是大语言模型由于接受过大量人类行为数据的训练,能够提供更准确的判断。

整个ArtHOI系统的工作流程就像制作一部动画电影的过程。首先,系统会对输入的视频进行"预处理",这个步骤类似于电影制作中的前期准备工作。系统会识别出视频中的手部和物体,估算每一帧的深度信息,甚至会"擦除"掉手部,生成一个只有物体的"干净"视频,这样可以更清楚地看到被手遮挡的物体部分。

接下来是"物体重建"阶段,系统会选择一个最清晰的视频帧作为参考,利用图像生成三维模型的AI技术,创建出物体的初步三维形状。但是这个形状就像一个没有标注尺寸的建筑图纸,需要进一步确定真实大小和位置。这时候ASR技术就发挥作用了,它会不断尝试不同的尺寸和位置组合,将三维模型投影回视频图像,看看哪种组合能够最好地匹配原始视频中的物体轮廓和深度信息。

然后是"运动追踪"阶段,系统需要理解物体各个部分是如何运动的。这个过程就像制作定格动画,需要精确记录每一帧中物体各部分的位置变化。系统会将物体分割成不同的部分(比如剪刀的两个刀片),然后使用密集跟踪技术来追踪每个部分在视频中的运动轨迹。为了处理被遮挡的情况,系统还会应用平滑约束,确保运动轨迹不会出现不自然的跳跃。

最后是"手物对齐"阶段,这是整个系统最精妙的部分。系统首先会独立重建手部的三维模型,然后利用大语言模型来分析每一帧中手与物体的接触关系。大语言模型会像一位细心的观察者一样,分析视频画面并回答诸如"左手是否接触物体"、"哪个手指在用力"这样的问题。基于这些接触信息,系统会调整手部和物体的相对位置,确保重建出的三维场景在物理上是合理的,比如手指确实碰到了物体表面,而不是悬浮在空中或者穿透物体内部。

为了验证ArtHOI系统的效果,研究团队创建了两个新的测试数据集。第一个叫做"ArtHOI-RGBD",包含了用专业深度相机拍摄的五个演示视频,涵盖了耳机、剪刀、糖果盒、光驱和订书机等常见物体的操作过程。第二个叫做"ArtHOI-Wild",收集了八个来自互联网和智能手机录制的真实场景视频,这些视频更接近日常生活中的实际情况,光照条件、拍摄角度和画质都更加多样化。

实验结果令人印象深刻。在物体重建精度方面,ArtHOI系统在所有测试场景中都取得了最低的重建误差。比如在处理耳机操作视频时,系统的重建误差只有8.12毫米,远低于其他方法的结果。更重要的是,即使与需要事先扫描物体的传统方法相比,ArtHOI也展现出了相当甚至更好的性能。这就好比一个从未见过某种工具的工匠,仅仅通过观看别人使用这个工具的视频,就能够制作出同样精确的工具副本。

在手物接触判断方面,大语言模型指导的接触推理方法也显示出了明显优势。系统能够准确识别88.58%的接触状态,误报率仅为11.20%。这种准确性对于生成物理上合理的重建结果至关重要,因为即使是微小的接触判断错误,也可能导致手指"穿透"物体或者"悬浮"在空中这样不自然的结果。

研究团队还进行了详细的消融实验来验证每个技术组件的贡献。他们发现,如果去掉ASR技术,直接使用传统的物体姿态估计方法,成功率会从100%下降到60%-78%。这表明在处理AI生成的物体模型时,传统方法往往由于模型与真实物体之间的差异而失效。而如果去掉大语言模型的接触推理,仅仅依靠简单的几何计算来判断接触关系,接触判断准确率会显著下降,特别是在处理复杂的真实场景时。

这项技术的应用前景非常广阔。在机器人学习领域,系统可以让机器人通过观看人类操作视频来学习复杂的操作技能,而不需要昂贵的动作捕捉设备或者反复的人工标注。在增强现实应用中,系统可以实现更精确的虚拟物体与真实手部的交互效果。在人机交互研究中,系统可以帮助分析和理解人类的操作行为模式,为设计更符合人体工学的产品提供指导。

当然,这项技术也还有一些局限性。目前系统主要针对具有明确关节结构的物体,比如剪刀、笔记本电脑这样有清晰活动部件的物品。对于变形物体或者流体,系统还难以处理。另外,系统的计算时间相对较长,处理一段100帧的视频需要约1小时的计算时间,这限制了其在实时应用中的使用。不过,研究团队指出,通过优化算法实现和并行计算,这个处理时间有望大幅缩短。

从技术发展的角度来看,ArtHOI系统代表了一个重要的发展趋势:将多个专门化的AI模型有机结合,解决单个模型难以应对的复杂问题。这种"AI模型协作"的方法论,可能会在更多领域得到应用。同时,将大语言模型引入传统计算机视觉任务的做法,也为跨模态AI应用开辟了新的可能性。

说到底,ArtHOI系统的成功在于它没有试图从零开始解决所有问题,而是巧妙地整合了现有AI技术的优势,并通过精心设计的协调机制来弥补各个组件的不足。这种方法既充分利用了现有技术积累,又通过创新的整合方式达到了超越单个组件的效果。对于普通用户来说,这项技术的最终目标是让计算机能够像人类一样理解复杂的三维世界互动,这不仅会改变我们与数字设备的交互方式,也可能为机器人技术、虚拟现实和增强现实应用带来革命性的进步。

Q&A

Q1:ArtHOI系统是什么?

A:ArtHOI是由哈尔滨工业大学和上海交通大学联合开发的AI系统,它能够仅通过观看一段普通的单摄像头视频,就完整重建出手部与可活动物体(如剪刀、笔记本电脑等)互动的三维过程。这是全球首个能从单目视频重建手与关节物体复杂互动的系统。

Q2:ArtHOI系统与传统方法有什么区别?

A:传统方法要么只能处理固定不动的物体,要么需要事先用多个摄像头对物体进行全方位扫描。而ArtHOI只需要一段手机视频就能工作,它通过整合多个AI模型,利用自适应采样优化技术确定物体尺寸位置,并用大语言模型判断手物接触关系,实现了更实用的单视频重建

Q3:ArtHOI系统的准确率如何?

A:实验显示,ArtHOI在物体重建方面误差仅8-4毫米,在手物接触判断方面准确率达88.58%,误报率仅11.20%。即使与需要事先扫描物体的传统方法相比,ArtHOI也展现出相当甚至更好的性能,证明了其技术的先进性和实用价值。