随着自动驾驶技术的迅猛进步,BEV+Transformer的感知模式为高阶自动驾驶带来了前所未有的精度、泛化能力和多模态融合效果,已成为众多顶尖汽车制造商的首选方案。然而,当前自动驾驶方案中的大模型算法参数规模剧增,对算力、数据IO及互联能力提出了更高要求。面对这些挑战,浪潮信息近日发布了全新的自动驾驶计算框架AutoDRRT 2.0,并立即实现开源,助力用户快速搭建并部署端到端的低延时自动驾驶系统,推动大模型技术在车载领域的应用。
近日,浪潮信息发布支持BEV+Transformer的全新自动驾驶计算框架AutoDRRT 2.0(Autonomous Driving Distributed Robust Real-Time),并第一时间开源,用户可以基于该框架快速搭建部署端到端的低延时自动驾驶方案,加速大模型上车。
基于在车载计算、自动驾驶算法、软硬协同等领域的研发积累,浪潮信息从硬件系统、软件环境、应用框架及算法内核多个层面对AutoDRRT2.0进行优化,实现计算、通信、IO全面升级,优化后,框架整体端到端链路延时低于100 毫秒,保障车载大模型的高效稳定运行。
■ 计算方面,框架支持BEV+Transformer的低延时推理,BEV算法库性能较业界平均水平提升一倍;
■ 通信方面,将DDS通信中间件从支持以太网扩展到支持PCIe,大数据通信效率提升14倍;
■ IO方面,通过GPU数据共享,减少CPU与GPU间冗余数据搬运,让IO吞吐效率提升6倍。
自动驾驶计算框架AutoDRRT 2.0开源!
BEV+Transformer成为自动驾驶标配,车端部署面临挑战
利用相机进行纯视觉感知是自动驾驶的主要技术路线之一。但在相机2D视角下,物体由于遮挡会产生不可避免的视觉盲区问题。BEV (Bird’s eye view,鸟瞰图) 从俯视视角重建3D感知空间,不仅能够提供360°全域感知信息,还便于多源、多模态的数据融合,有利于自动驾驶高效感知、定位和路径规划。
纯视觉方案在物理上会损失感知目标的深度信息,BEV技术借助Transformer特征推理,可将2D透视空间映射到3D物理空间。Transformer大模型通过交叉注意力机制重建深度特征,具有精度上限高、泛化能力强等优点,并通过学习建立数据帧间的关联,在4D (3D+时序) 空间生成无盲区的全方位感知结果,确保驾驶安全。这种BEV+Transformer的感知范式正在成为自动驾驶标配,但在车端部署应用中仍面临计算、通信、IO等方面的多重挑战。
模型参数量大幅提升,算力需求骤增:从2D+CNN小模型到BEV+Transformer大模型,参数量的大幅提升给计算带来越来越大的挑战,车端模型部署不仅要考虑单SOC的计算性能优化,如低比特量化、算子融合等,而且要考虑多SOC的模型并行问题,实现多SOC的协同,包括算法拆分、模型的并行机制、SOC间的负载均衡与pipeline优化等;
典型小模型ResNet 50与典型大模型BEVFormer对比情况
通信带宽不足,时延需求严苛:车载计算经历从2D+CNN小模型到BEV+Transformer大模型的技术升级,并最终朝着端到端大模型的方向发展,这使得数据交互也逐步从目标级过渡到特征级,最终向数据级维度演变。数据通信量增加使得多SOC协作中的通信负荷急剧变大,设备间的通信开销逐渐成为框架的延时瓶颈。作为主流的通信中间件,DDS (Data Distribution Service, 数据分发服务) 仅支持以太网进行设备间的数据传输和调度。该模式受限于有效带宽和传输协议的限制,在大批量数据吞吐的情况下容易发生阻塞,导致通信效率下降。以典型多模态感知模型BEVFusion为例,其在单SOC上单帧推理的时间约50 ms,若双SOC推理时间降至约30 ms,然而设备间通过千兆以太网和DDS进行特征融合的通信耗时也在数十毫秒,通信延迟抵消了算力提升带来的性能优势。因此,车端部署大模型亟需更高速的数据通信带宽;
数据吞吐提升,IO制约计算:自动驾驶框架层面的感知任务包含原始数据的接入 (传输+调度) 和模型推理等多个部分。数据的调度包含大量逻辑操作,需要CPU运行,而模型推理则主要为AI运算,由GPU执行,DDS则提供通信服务支持。但由于DDS不支持GPU层面上的通信和调度,导致跨模型/节点的任务数据在CPU-GPU间的冗余搬运,出现IO消耗。随着自动驾驶技术的发展,车辆各类传感器数据呈爆发性增长趋势,大量数据的传输让IO问题日益凸显。在浪潮信息自动驾驶研发团队的实测中,数据IO耗时占完整链路的15%~30%,IO限制计算效率的发挥。
全新推出AutoDRRT 2.0,计算、通信、IO全面升级
浪潮信息团队通过计算、通信、IO全面升级,研发AutoDRRT 2.0,解决技术进化带来的各项挑战。
■ 计算升级,从2D+CNN到BEV+Transformer
为了实现“大模型上车”的目标,AutoDRRT 2.0从计算组件的分布式、高容错及低延时三个核心特点出发进行技术革新,实现框架支持BEV+Transformer低延时推理。
分布式:从任务级并行到数据级并行。浪潮信息车载域控制器EIS400通过多SOC的PCIe互连实现算力扩展。AutoDRRT 2.0框架采用分布式架构设计,选择将200+个功能节点部署在不同SOC上并行执行,通过自动分布式并行工具进行任务间的调度和设备的负载均衡,节点间通过DDS中间件进行通信和协作,从而实现任务级并行计算加速。同时,AutoDRRT 2.0利用BEV算法使用多环视相机补盲进行全域感知的特点,选择将异源数据的编解码流分配到SOC上不同的计算单元,实现算法单batch推理的数据并行,进一步提高硬件使用效率,降低计算延时;
高容错:从算法间容错到算法内容错。在复杂工况下保障计算平台的稳定运行也是框架设计的核心要点之一。AutoDRRT 2.0通过备份重要功能节点和关键消息,在主算法失效后实时 (< 1ms) 切换从算法,实现算法间无感容错,达到失效可操作。同时,浪潮信息自动驾驶研发团队进一步从算法内核层面升级,开放了面向多模态任务的高鲁棒性低延时自动驾驶感知算法BEVFusion_Robust,在原始代码基础上通过高性能Lift-Splat-Shoot算法解绑相机流和雷达流,并基于流并行的方式,在BEV统一表征下适配多检测头实现了自动驾驶多源传感器融合感知方案中的鲁棒性需求,使得框架在纯视觉、纯雷达及多模态下均可以稳定运行,延时较基础版本下降22%。模型现已集成在AutoDRRT 2.0高性能算法库。
BEVFusion_Robust通过多流多检测头的方式实现鲁棒性升级和推理加速
低延时:算法内核全面优化,降低运行时延。为降低大模型运行时延,AutoDRRT 2.0在算法内核层面进行改造,包括对典型BEV模型进行Post-Training Quantization量化,提高推理效率,并引入结构化稀疏N:M稀疏方案,提高了内存访问效率,不影响模型精度的基础上压缩模型规模,节约计算和存储成本。AutoDRRT 2.0还开发了高性能算子库,典型算子延时下降70%。通过算子融合的方式,大模型可以减少GPU在核函数之间的切换,进一步优化了性能。以BEVDet为例,AutoDRRT 2.0的BEV算法库在典型推理能力上实现了相较于业界开源版本速度提升1倍,在单SOC上推理超过50 FPS。实车测试显示,浪潮信息车载域控制器EIS400与AutoDRRT 2.0的自动驾驶算法方案,数据闭环端到端延迟低于100毫秒,确保了大模型在车端的稳定高效运行。
典型BEV模型推理FPS提升1倍
■ 通信升级,DDS中间件从支持以太网扩展到支持PCIe
为提升通信带宽,AutoDRRT 2.0在中间件层面进行创新,给出DDS的Opt优化版本 (DDS_Opt)。框架通过PCIe内存共享方式和设备间的直接访问 (Direct Memory access,DMA) 技术,使得大数据在设备间可以高速通信,同时开放API接口,一方面保留了DDS订阅/发布的功能特点,另一方面也使得用户不需要关心底层设备间地址映射逻辑和实现方法,专注于DDS应用层上的设计。
DDS_Opt基于PCIe的通信原理
基于PCIe的通信模式创新大幅降低链路时延,减少CPU算力消耗,同时能兼顾DDS中的发布/订阅等通信协议的优势,满足跨SOC的大数据通信场景需求。实测DDS基于PCIe的通信模式在通信原理和实际效果中均优于以太网,大文件传输时效果尤其明显。我们基于PCIe模式实现ROS2+DDS的跨设备大数据通信应用,在数据量达到100MB时完整链路通信效率较以太网模式提升14倍。
100MB大数据通信,链路通信效率提升14倍
■ I/O升级,节点间GPU数据共享,避免CPU-GPU间搬运
为了提高感知任务的执行效率,减少CPU-GPU间冗余IO操作,优化链路延时,AutoDRRT 2.0在不改变原始模块链路的前提下,以传输数据“标签”的间接通信代替传输数据“本体”的直接通信,通过节点间GPU数据共享,在保留模型间松耦合结构的同时完成了基于DDS的高效能协作,实现“轻量化”传输和调度功能,减少框架负荷。
IO优化原理图
对于相机传输链路,通过GPU数据共享完成数据获取及模型推理两个ROS2节点的数据通信,可以有效减少IO操作,降低系统时延。如下给出典型的单帧图像数据读入(8 MB数据量)下IO_Opt升级效果,对比优化前模块 (传统IO算法) 延时下降85%,效率提升近6倍。
IO传输效率提升6倍
浪潮信息凭借AutoDRRT 2.0计算框架和车载域控制器EIS400的创新技术,致力于为汽车制造商和自动驾驶软件开发者提供卓越的车载计算解决方案。这些方案不仅具备出色的性能、高通信带宽和低IO延时,还加速了BEV+Transformer技术在自动驾驶汽车中的广泛应用。浪潮信息期望通过其前沿技术和产品,推动自动驾驶技术的持续进步,为行业带来更加安全、高效和智能的出行体验。
热门跟贴