上海交通大学研究团队开发出一种基于人工智能(AI)的轻量级系统,可使无人机群在复杂环境中高速导航,且无需依赖昂贵硬件或人工控制。该方法标志着群体机器人技术的重大突破,有望应用于灾害响应、巡检、自主拍摄等多个实际领域。

当前多数无人机导航系统采用模块化结构,将mapping、路径规划、障碍检测和飞行控制等任务分开处理。尽管在某些场景下有效,但这种结构会增加误差累积风险和反应延迟,在拥挤或快速变化的环境中问题尤为突出。

上海团队用基于可微分物理的紧凑型端到端神经网络取代了传统结构。

该方法通过模拟物理过程并利用“反向传播”自我调整,使系统直接学习飞行控制,显著提升了学习速度和实际性能。此外,系统未使用高分辨率相机或昂贵传感器,而是采用12×16像素的超低分辨率深度相机——团队解释称,这种低保真输入类似昆虫的复眼。

神经网络利用有限数据实时决策,引导无人机穿越障碍和狭窄空间。测试中,搭载该系统的无人机飞行速度达每秒20米(65.6英尺),是早期学习型方法的两倍;在杂乱环境中的导航成功率达90%,远超此前研究的60%左右。

该神经网络可在仅21美元的小型开发板上运行,无需GPU即可高效工作,这使得低成本批量制造和部署无人机成为可能,显著降低了群体无人机应用的门槛。

与许多需要大型专家标注数据集的深度学习模型不同,该系统完全通过仿真训练。团队利用基础几何环境和嵌入式物理引擎 teach 模型飞行技能。

值得注意的是,训练过程未使用任何真实飞行日志或人工制作数据。在群体测试中,多架无人机无需相互通信或依赖中央控制器即可协调运动——这种自组织行为在现有机器人群体系统中较为罕见,展现出强大的未来应用潜力。

目前,研究团队正致力于用光学流传感器替代深度相机(光学流传感器可追踪运动,是昆虫视觉的核心组件),并深入研究AI模型的决策机制以理解其内部推理过程。

“我们正在探索用光学流替代深度图实现全自主飞行,”邹教授和林教授解释道,“光学流提供基础运动线索,神经科学研究早已表明它是昆虫视觉的关键部分。通过模拟昆虫导航的自然策略,我们希望进一步突破技术瓶颈。同时,端到端学习系统的可解释性也是我们重点研究的方向。”