来源:市场资讯
(来源:智通财经)
智通财经APP获悉,全球传感器市场在自动驾驶和人工智能的带动下稳步增长。据Omdia测算,2025年全球工业机器人用图像传感器的市场规模约为2亿美元,预计2029年将增长至接近3.8亿美元,年复合增长率接近14%,这充分反映了全球智能化进程的加速。随着人形机器人的量产落地与应用场景日趋多样化,机器人的视觉感知技术将取得长足的进步,向三维化、主动化、多模态化、感算一体化的方向加速演进。
3D视觉
传统的工业机器人只需在固定的位置完成重复工作,而具身智能机器人需要融入复杂的动态环境,主动视觉感知(Active Visual Perception)应运而生。它指的是系统能够根据特定的场景主动调整自身行为或优化环境参数,包括移动传感器位置和视角、结合任务动态调整传感器参数等等。这要求视觉传感器对3D空间和动态环境有更深入的理解。采用单目/多目RGB摄像头的2D视觉系统向3D视觉系统升级。ToF、结构光、立体双目摄像头及中远距LiDAR这些可以向环境发射能量并接受回波的3D视觉传感器有着广阔的应用空间。3D视觉呈现多元化发展的格局。不同技术路径在精度、探测距离、成本、功耗等维度各有侧重,在未来很长一段时间将在不同应用场景下共存。
多模态感知融合
单一模态的传感器存在固有的局限性,如可见光相机在低光照下失效,激光雷达无法识别纹理。多传感器融合通过协同不同传感器的优势,实现对环境更全面的理解。具身智能的底层模型(如VLA模型)要求视觉传感器必须与语言、触觉、听觉、力觉等多种模态深度融合,让机器人更全面地理解周围环境和并与环境进行交互。例如,基于视觉的触觉传感器(视触觉)正成为机器人灵巧手的关键技术。系统级封装(SiP)可以把各种传感器和处理组件紧凑地整合于单一的模块中,使系统向着更加轻量化、自适应的方向演进。
红外成像与多光谱感知
可见光相机在夜间、雾天、烟尘等条件下的失效催生了红外成像技术的广泛应用。红外传感器通过发射并接收红外光并测量反射光的时间差,能精准识别3-10米内的障碍物,让自主导航避障在黑暗环境下成为可能。根据不同物体对红外光的反射特性不同,工业机器人在进行物体识别和分拣任务时可利用红外传感器对物体进行快速分类。红外热成像技术能够探测物体自身辐射的红外线,可被用于夜间巡逻、电力设备过热检测、生命体征监测全天候等领域,成为构建感知能力材质的关键一环。
多光谱目标检测通过将可见光(400–700 nm)、近红外(940 nm)、中红外(5.5–14.0 μm)及紫外(390 nm)等传感器集成进同一模块,让机器人能够在单一交互中同时获取多重物理信息,实现对物体形状、颜色、和温度等信息的全面解读。
事件传感器
传统的基于帧的视觉传感器由于受固定帧率的限制,在对高速移动目标进行跟踪时经常出现运动模糊、目标丢失等问题。基于事件的视觉传感器(Event based sensor)模拟人眼视觉的特性,仅在检测到视觉场景中的亮度、对比度变化时才反馈给大脑。事件传感器完美契合了具身智能体对信息感知实时、高效的需求,消除了追踪高速目标时的运动模糊,对高动态范围内的物体特性也能有效感知,同时,更少的数据传输处理更加适合移动机器人的边缘计算平台。当前的事件传感器通常与RGB传感器配合使用,能够同时输出色彩和事件数据,为高速视觉任务提供融合方案。
感知-计算一体化
随着具身智能的应用场景日趋复杂,对视觉系统实时性、低功耗和高集成度提出了更高的要求。传统视觉系统里,传感器和处理器是分离的,海量数据必须完整传输到CPU或GPU再进行处理。这对移动机器人是沉重的负担。感算一体架构将传感器和计算单元集成在同一芯片,在数据源头就完成特征提取、目标识别等预处理,极大缩短了数据延迟,降低了系统功耗,同时保护了数据安全与隐私,为具身智能在一些隐私场景的应用扫清了障碍。目前感算一体化的硬件架构分为传感器单元附近计算(Near-sensor Computing)和传感器单元内部计算(In-sensor Computing)两种。随着新型存储技术的发展,感知-存储-计算一体化智能成像系统成为可能。例如将光电探测器(PD)和阻变存储器(RRAM)集成的感存算一体芯片,构建了类脑视觉的新范式。
未来的传感器技术除了在硬件层面突破,还需要做到算法层面多模态数据的深度融合,建立统一的多模态表达空间。此外,系统层面的感知-行动闭环优化也至关重要。具备自主感知、理解和交互能力的具身智能系统,正在一步步从科幻走向现实。
热门跟贴