面向复杂动态场景的多传感器融合定位与运动目标分割
编号:3174
访问权限:私有
更新:2023-04-12 21:27:11 浏览:487次
口头报告
摘要
在复杂的城市场景中,精确和鲁棒的定位是自动驾驶或机器人多传感器系统的核心。与对不同环境引起的光照变化的影响敏感的基于相机的定位相比,基于激光雷达的定位具有更高的精度和鲁棒性。然而,现有的激光雷达定位几乎都假设场景是静态的,没有考虑移动物体对定位和建图的影响。因此,全局一致的多传感器融合定位仍然是一个悬而未决的问题,尤其是在复杂的动态环境中。我们提出了一种基于激光雷达的动态场景感知和融合定位框架。为了提高动态复杂场景中的定位鲁棒性,我们设计了一个基于时空信息和优化地面的运动目标分割(MOS)模块。在此基础上,我们设计了一个轻量级、紧密耦合的LiDAR-IMU-GNSS里程测量框架,实现了准确、实时的位置估计。在前端,基于迭代扩展卡尔曼滤波器(IEKF),我们在不设计特征提取器的情况下直接在地图上配准原始3D点云,这可以适应不同的激光雷达扫描模式,然后可以与IMU紧密耦合。在后端,我们构建了姿态图优化(PGO),以集成相对和绝对测量,包括里程计、闭环检测和可选的全球导航卫星系统(GNSS)先验因子。与现有方法相比,我们在KITTI数据集上验证了所提出的动态物体分割模块,实现了最先进的性能。此外,我们在两个公共数据集和一个固态激光雷达数据集上展示了所提出的框架的定位性能。结果表明,我们的系统比先进的融合定位方法更具竞争力。
关键词
多源融合,LiDAR定位,动态目标分割,深度学习,自动驾驶
发表评论