[首发于智驾最前沿微信公众号]相信很多人小时候看动画片的时候,一定看到过这么一个画面,动画片中的主角会在墙壁上画出极其逼真的隧道,从而误导对手撞向墙壁。就在去年,前美国国家航空航天局工程师马克·罗伯就利用类似的手段,在泡沫塑料墙上绘制了一幅三维道路画作,结果成功骗过了一辆处于自动辅助驾驶状态的特斯拉(开启Autopilot功能)。实验中,特斯拉在时速四十英里的情况下,完全没有做出制动动作,直接穿透了这堵假墙,而另一辆配备了激光雷达的车辆就稳稳地停在了障碍物前。这一现象引发了公众对纯视觉技术安全性的强烈质疑,也让人们开始重新审视纯视觉方案在面对极端光学幻觉时的识别能力。

打开网易新闻 查看精彩图片

图片源自:网络

从技术发展的眼光来看,早期的纯视觉系统之所以无法识别这类场景,核心原因在于当时的神经网络算法在处理三维空间时更像是在“看照片”而不是“感知世界”。摄像头捕获的是光子并将其转化为二维的像素矩阵,深度信息在这一过程中其实是丢失的。传统的视觉算法通过识别物体的特征纹理、边缘轮廓以及透视关系来反推距离,逼真的三维画作恰恰是利用了这些视觉线索来伪造深度。但随着算法架构从基于规则的模块化设计演进到现在的端到端神经网络,以及硬件系统的提升,视觉感知系统对真实三维空间的理解已经发生了质的变化。

打开网易新闻 查看精彩图片

空间建模逻辑的重构与占用网络的革新

视觉感知系统想理解三维画作,首先需要解决如何从二维图像中重建三维几何信息的问题。在自动驾驶发展的很长一段时间里,大多数车辆运行的系统主要依赖于目标检测技术。这意味着神经网络会尝试在图像中寻找符合“车道线”、“车辆”或“行人”特征的像素块,并为其框定一个三维边界。当画作成功模拟了车道延伸的质感和远方的地平线时,由于系统在库中找不到匹配的“障碍物”模型,检测器会将这些像素识别为可行驶区域。

但随着占用网络的使用,纯视觉自动驾驶的障碍物检测能力得到了飞速提升。这一技术不再只是关注特定的物体分类,而是将车辆周围的空间整体切分为成千上万个微小的立方体单元,即体素。占用网络的任务是预测每一个体素单元在三维空间中是被物体占据了,还是处于空闲状态。在最新的技术专利中,特斯拉更进一步地引入了高保真占用确定技术,并采用了一种被称为符号距离场的数学模型。与简单的二进制占用判断不同,这种模型会计算三维空间中任意一点到最近物体表面的精确距离。如果该数值为正,则代表该点位于物体外部;如果为负,则代表位于物体内部;而数值正好等于零的点,则代表物体的表面边界。

打开网易新闻 查看精彩图片

图片源自:网络

这种基于距离场的建模方式赋予了视觉系统更强的几何敏感性。通过处理来自八个不同角度摄像头的视频流,系统能够计算出物体表面的细微曲率和起伏。即便画作在颜色和纹理上做到了极致,但它在物理上依然是一个平滑的平面。当占用网络结合了符号距离场技术后,它能够以亚体素级的精度识别出物体表面的平整度。在处理所谓的“三维假路”时,算法会就可以发现图像中表现出的“ 远景 参数 图片 )深度”与感知到的“平面几何”之间存在逻辑冲突。

此外,硬件的迭代对于识别能力的提升也起到了至关重要的作用。随着硬件的不断升级,摄像头的像素密度也实现了大幅提升,这使得系统可以捕捉到3D画作中的印刷网点、纸张接缝或是画布表面的反光特性。这些微小的视觉特征在低分辨率时代会被算法作为噪点过滤掉,但在高分辨率时代,它们成为了判断“这是否是一幅画”的关键证据。同时,新的计算芯片也提供了更强的数据处理能力,支持系统以更高的频率更新三维世界模型,从而实时修正对环境的认知偏见。

打开网易新闻 查看精彩图片

运动差与时空融合的识别机制

如果说静态的占用网络是从空间几何的角度识破了伪装,那么运动差则是纯视觉方案在动态环境下最强大的“测距仪”。在人类的视觉经验中,当我们移动时,离我们近的物体在视野中移动得快,而远处的物体移动得慢。这种相对速度的差异提供了极其可靠的深度线索。即使一个人闭上一只眼睛,只要他在移动,就不会被一面画着路的墙壁骗到,因为随着距离墙壁越来越近,画中所有的像素点都会以相同的速度扩张,这与真实三维场景中不同深度景物的扩张速度完全不符。

在最新的视觉软件架构中,这种生物学原理被转化为强大的时空融合算法。以前的系统在处理每一帧画面时,更像是处理一张独立的照片,而现在的端到端网络则是处理一段持续的视频流。系统会识别一个包含过去几秒钟内的数十帧图像视频队列,通过对比不同时刻、不同角度的像素位移,神经网络可以精确地计算出每一个像素点的光流矢量。在面对画着三维道路的墙面时,时空融合算法会发现一个逻辑漏洞,即画作背景中表现出的“远方地平线”,其光流特征竟然和近处的“墙角”完全一致。在物理世界中,这是不可能发生的。

打开网易新闻 查看精彩图片

图片源自:网络

这种对物理一致性的判断被整合进了系统的世界模型中。所谓世界模型,是自动驾驶脑部的一个内部仿真器,它不断预测未来几秒钟内周围环境的演变。当车辆加速驶向一堵画着三维道路的墙时,世界模型会预期看到一个平面的快速扩张。如果此时摄像头捕捉到的纹理在可以表现深度,但其运动特征符合平面的缩放规律,系统内部的预测误差就会激增。此时就会触发系统的防御机制,将其识别为高风险的不确定区域。

通过这些复杂的算法协作,现阶段的纯视觉系统正在摆脱对简单图像分类的依赖。它学会通过观察光影的变化、物体的位移以及几何结构的连贯性来解构周围的场景。这种能力的提升让自动驾驶系统对整个物理世界规则理解不断深化。

打开网易新闻 查看精彩图片

端到端架构下的不确定性与安全性博弈

在讨论视觉系统识别能力的同时,我们不得不提自动驾驶技术路径的一次重大转向,即从规则驱动转向数据驱动的端到端模型。在规则驱动的架构中,需要写下成千上万行代码告诉汽车“如果看到红色圆形标志,就停下”。这种方法存在一定的局限性,由于现实世界有无穷无尽的组合,根本无法预测到每一个边缘场景。而在现在的端到端系统中,感知和决策被整合进了一个巨大的神经网络,它通过学习老司机的真实录像来理解如何开车。

打开网易新闻 查看精彩图片

图片源自:网络

这种“模仿学习”赋予了自动驾驶系统更强的泛化能力。神经网络在训练过程中见过无数真实的隧道、立交桥和高速公路,也见过各种光影变幻下的平面墙壁。它通过大量的学习,自动驾驶会了解一个真实的物理开口在光线分布、纹理过渡以及随着车辆靠近时的画面细节变化上具有特定的统计特征。当一个三维画作出现时,虽然它在某些特征上模仿得很像,但在更多的维度上,它偏离了真实驾驶场景的统计分布。

当然,只要聊到端到端,就不得不提“黑盒”问题。当一辆处于端到端架构下的车识别出了假墙并制动时,其实是数亿个神经元协同工作的结果,很难定位具体是哪个逻辑起到的作用。为了增加系统的透明度和安全性,研发人员在神经网络中添加了专门的“可视化头”,将AI脑海中的构思实时渲染在屏幕上。这种可视化不仅是给乘客看的,更是体现出系统内部各模块达成共识的过程。

打开网易新闻 查看精彩图片

最后的话

纯视觉方案对三维画作的识别能力正经历从“完全被动”到“主动解构”的进化。随着占用网络的细化、时空融合技术的应用以及硬件计算能力的爆发,现在的视觉系统已经初步具备了识破三维图像的能力。虽然无法做到百分百的识别,但纯视觉自动驾驶的技术演进逻辑已经非常清晰,纯视觉不再是看图说话,而是一种建立在物理规律和动态观察基础上的全感官重建。随着数据的进一步积累和模型规模的扩大,未来的自动驾驶汽车将拥有比人类更敏锐的眼力,能识破各类的边缘场景。