现在的智能汽车,在自动驾驶技术上,其实在玩两套完全不同的路子。
一边是特斯拉、小鹏,主要只用摄像头,坚决不碰激光雷达。另一边是华为、理想、小米,把激光雷达顶在脑门上,生怕别人看不见。
而马斯克就看不惯激光雷达,他开喷:只有傻子才用激光雷达。人眼又不会发射X射线,靠眼睛就能开车,汽车凭什么不行?
这话听着挺狠,但问题来了——到底谁对?
先说结论:现在谁也说服不了谁,胜负远没到揭晓的时候。但从理论上讲,纯视觉方案的上限,确实更高。
注意,我说的是“上限”,不是“现在一定更强”。这两个词的区别,你得琢磨琢磨。
摄像头这东西,说白了就是给车装了一双人眼。它能看清红绿灯,看懂车道线,分辨路牌,甚至读懂交警的手势。而且成本低、功耗低,输出的图像和视频,跟人类看到的世界一模一样——这对算法训练来说,简直是天然优势。
但摄像头的短板也明摆着:不太会算距离,天一黑就抓瞎。
激光雷达正好反过来。它能精准测距,黑灯瞎火也能看见障碍物,简直是夜视仪plus版。可它看不懂颜色,分不清红绿灯,更别说理解交警手势了——你指望它读懂“停车”的牌子?想都别想。
那能不能两个一起上?这就是所谓的“融合方案”。
听着挺美,摄像头负责看,雷达负责测,各显神通。但这里藏着一个死结:当两个传感器说的不一样时,听谁的?摄像头说前面是绿灯,雷达说检测到障碍物——你让车信谁?这个问题,至今没人能完美解决。
再看摄像头的短板,其实是有办法补的。距离算不准?多帧图像叠加、AI算法介入,精度能追上来。太黑看不见?ISP技术进步,暗光成像一年比一年强。再说了,黑到人眼都开不了车的环境,你本来就不该开。
但激光雷达的短板,是物理层面的死穴。它天生看不懂颜色,理解不了语义——给1万线的分辨率也没用。
所以你说,从长远看,哪条路的天花板更高?
当然,这不代表明天摄像头就能把激光雷达踢出局。技术迭代需要时间,算法需要数据喂养。但方向已经明摆着了——当摄像头越来越像人眼,甚至超越人眼的时候,那个顶着“犄角”的激光雷达,可能真的没那么必要了。
热门跟贴