小鹏今年的1024科技日,被挪到了11月6日。而在10月24日当天,小鹏汽车副总裁、自动驾驶负责人李力耘宣布,AI天玑5.4.0正式开启公测:该版本下的智驾能力不仅在拟人化上可以呈现质变,变道成功率也提升了53%,绕行成功率提升了155%。
同时,小鹏汽车智能体验负责人于桐也表示,天玑5.4.0还将带来更具美感的SR渲染、更线性的动能回收、更舒适的AI底盘,另外还大幅放宽了智驾启动的条件。
RoboX更加关注的,是李力耘在现场对端到端方案,以及AI鹰眼视觉技术,进行了首次解读。
E2E的三种主流路线
“端到端是非常复杂严谨的技术,这不是一蹴而就的事。但我认为智驾已经从冷兵器走向了热兵器阶段——在AI时代,我们更侧重于用算力,用更大的算力、数据以及大模型,去解决智能驾驶更高阶的拟人博弈和接管率等问题。”李力耘说道。
他在会上分享了主流端到端的三种路线:
1、小模型堆叠:小鹏曾经考虑,在每一个模块中都引入AI模型,再通过一些规则和算法,让每个模块的AI模型有机结合起来。“但这样的方法仍然需要很多规则时代的工程师去定制接口,进行拼接和串联。”李力耘说道。
2、车端大模型:自下而上地在车端去构建网络来解决问题的方法,但是众所周知,车端算力是有限的,车端大模型也有着「见效快,但上限低」的缺点。
3、云端大模型:这也是小鹏目前采用的方案。李力耘称,只有突破硬件的限制,真正的探索能力的上限才是智驾的制胜关键——云端大模型往往比车端模型有着几十甚至百倍的参数可以去消耗。
“作为Scaling Law的忠实的信徒,我们会去探索其极限,也会尝试以更大的模型,更高的算力,更多的数据来实现极致的智能驾驶的体验。”
李力耘表示,端到端的本质其实是信息的无损传输,以及由数据构建的网络。它具备很强的泛化能力以及拟人性,数据中的每一个像素都可能会转化为某一种规则,这样就能够做到对场景和信息不遗漏重点。
相较来看,规则方案会面对无法穷尽的问题。而在大模型尤其是云端大模型的以及未来蒸馏在车上的形式下,都能够使智驾体验实现质变。
对此,李力耘举了一个例子:在规则时代,算法团队需要定义无数的限速,包括各种弯道限速、曲率限速、路口限速、红绿灯的限速,甚至还有逼近其他车辆的限速……但以AI来赋能之后,几乎不用任何去定义任何类似的限速了。因为AI会自动从数据中学习到老司机一样的经验,以及防御性减速的方法。
同时他也指出,支撑云端大模型的离不开高算力:小鹏在2025年会持续投入AI相关的云端算力,预期将会达到10 EFLOPS,相比于2024的规模会增加2.6倍。
“在这样的云端大模型以及海量数据的加持下,大模型会具有更好的时空的理解能力,也只有具备了这样的能力,我们才能真正实现轻雷达轻地图,摆脱激光雷达和高精地图的依赖,实现真正的全国都好开。”
另外,小鹏目前也能做到「一套智驾软件,标配全车系」,也是因为小鹏能够用一套软件来适配所有的车型,这意味着需要有更强的工程化的平台能力,包括数据采集、模型,还有算法对不同车型不同传感器的适配。
因为小鹏的产品覆盖了从MPV到轿跑的多种车型,以及从PRO到MAX的多个版本,其形态、底盘尺寸及传感器的布置都不尽相同。
鹰眼方案的关键技术
李力耘指出,AI鹰眼视觉的智驾方案让感知距离提升了125%,识别速度提升了40%。这意味着在做出变道绕行以及各种博弈的动作中,P7+会更加敏捷。
他介绍称,AI鹰眼视觉采用的是LOFIC技术(Lateral Overflow Integration Capacitor,横向溢出集合电容),该方案本质上是将摄像头的光信号变成电信号。
“当光线过强的时候或者光差过大的时候,人会需要适应,但是在LOFIC方案中,通过在车载摄像头上应用沟槽电容等技术,可以很好地实现对光差的适应。”
编者注:LOFIC是一项应用于图像传感器的技术——在一般传感器中,当光线照射到光电二极管时,会被转化为光电子。而多余的光电子一旦溢出,就可能导致图像过曝。
而LOFIC会在每个光电二极管旁边增加一个额外的电容(沟槽电容),多余的光电子会流入到额外电容中,避免被浪费掉,从而捕捉更多光线信息。
目前,小鹏实现了端到端智驾的第二步,接下来,在明年的年底,小鹏希望借助更大的云端模型,以及对云端模型的蒸馏上车,以L2的硬件实现类L3的智能驾驶体验。2026年,小鹏会逐步推出部分场景的L4级体验。
热门跟贴