贵州百年黔庄酒业:行泊车感知是否能够复用视觉感知摄像头

首先,从硬件角度上讲,周视摄像头如果想要替代环视鱼眼就需要解决如下几个比较重要的问题。

1)周视摄像头数量和对应的安装位置;

2)周视摄像头本身的视场角和分辨率需求;

3)泊车环境识别中对ISP的高要求能否实现;

从当前主流的周视布局上看,通常是布局在车身四周的4个摄像头,这样的侧前侧后周视摄像头一般有两种规格,一种是四个摄像头均采用100°摄像头;另一种是两个侧前视采用60°侧后视采用100°摄像头。实际上从整体俯视图的覆盖面上看,这样的方式足以支撑整车周围的目标环境探测。然而,我们容易忽略一点,那就是泊车环境对于近距离且高程信息的探测相对于行车环境仍然有更高的要求。比如泊车过程中,车轮与车位线的距离有时候是无法被周视摄像头探测到的。在者,对于周边两侧泊车环境的探测,360全景摄像头采用的是单目识别,只是经过对同一输入源的感知ISP处理来实现图像预处理,随后利用常规的神经网络进行目标识别。而对于周视摄像头来说则是利用侧方的两个摄像头识别的图像拼接来实现目标识别。由于图像拼接可能由于算法误差累积、色彩差异等原因,导致图像出现拼接缝隙,以及整幅图像的颜色亮度差异、明暗不一致、目标丢失或拼接图断裂的情况。这对于泊车感知能力都是比较大的牺牲。

打开网易新闻 查看精彩图片

另一方面,从分辨率角度上讲,同样分辨率的周视摄像头和360环视摄像头在关注点上也有所不同。对于摄像头来说,焦距和视场角是相互制约的,换句话说,诸如环视这类超大FOV的鱼眼摄像头就不可能具备周视一样相对较高的远距离识别能力。因此,如果想做到两者优势兼得,那么就势必需要增加对摄像头的设计投入。比如有些摄像头厂家也在研究是否可以通过从物理结构上将鱼眼相机和周视相机进行总成嵌入,然后再从感知处理架构上进行图像链路区分。采用多模型多任务的处理机制,有针对性的对环境目标进行处理。比如将周视相机的物体检测功能输入到周视目标识别神经网络进行处理;同时,将环视拼接后的图像输入到环视车位线检测的神经网络模型中。

打开网易新闻 查看精彩图片

最后,考虑泊车ISP而言,我们就需要结合行泊车对于场景处理的不同要求来说明了。就ISP处理本身而言,无非也就那几类比较重要和关键的要素场景。比如畸变校正、色彩还原和渲染、图像去躁、高动态范围融合的画面瑕疵处理、多帧处理、低延迟处理等。那么从单纯泊车场景上看到底有哪些需要区别于行车场景ISP呢?

不难看出,泊车摄像头的感知输入由于其范围更大,且识别更广,其输入图像通常是一些较为扭曲的图像。因此,畸变校正便是整个泊车感知处理的核心了。