本技术方案涉及机器人位姿定位技术,详细描述了一种融合多源数据的定位与地图构建方法及其系统。该技术深入分析了多源SLAM方案,并提出了利用扩展卡尔曼滤波算法结合激光雷达数据进行精确定位的技术方案。
背景技术
随着机器人技术的飞速发展,越来越多的科技产品如无人车、无人机等开始走进人们的生活,而其中实现各类移动机器人智能化的一项重要技术就是定位。在实际应用中,移动机器人在面对复杂场景,如光照变换、动态障碍物多时,容易导致跟踪失败,进而影响移动机器人的定位与建图过程。因而复杂环境下的同步定位与建图(SimultaneousLocalization and Mapping,SLAM)是当前移动机器人研究的热点与重要方向。
基于单一传感器的SLAM方法在运行环境条件差、机器人运动速度或转向过快时表现不稳定,例如:激光雷达传感器扫描观测距离有限、易受到环境中复杂几何结构影响。相机对机器人周围环境的照明条件有一定的要求。编码器电机经过长时间工作会产生累计误差。罗元等人融合里程计与雷达数据,优化建议分布函数,有效降低了预测阶段机器人位姿的不确定性,减少了SLAM所需粒子数量。
2015年,Leutenegger等人提出了基于优化的VIO融合方案OKVIS(OpenKey-frame-based Visual-Inertial SLAM),他们在非线性优化问题中引入了IMU和图像关键点的紧密耦合融合框架,应用线性化和边缘化来实现关键帧。2015年,Zhang等人提出了视觉与激光融合的SLAM系统,即VLOAM(Visual-lidar Odometry and Mapping)。他们提出的在线方法从视觉里程计开始,去估计自身运动,并以高频率、低保真度去记录来自扫描激光雷达的点云。然后,通过基于扫描匹配的激光雷达里程计去改善运动估计,并完成点云配准。2017年,香港科技大学的沈劭劼等人提出了VINS-Mono(Visual-Inertial System Monocular)。该系统将单目相机和IMU的数据进行了融合,通过融合预积分的IMU测量值和特征观测值,使用一种基于紧耦合、非线性优化的方法来实现高精度的视觉惯性里程计。针对回环检测模块,将其与紧耦合公式联合,使其完成重定位的同时计算代价最低。并且,该框架还完成了四个自由度的位姿图优化来提升全局一致性。2021年,王等人提出了一种由三个模块组成的直接视觉激光融合SLAM框架。该框架包括一个两阶段的直接视觉里程计模块、利用动态对象的激光映射模块和将视觉词袋与LIDAR-Iris特征相结合的并行全局和局部搜索回环检测模块。结果表明该算法相较于最先进的方法实现了更准确的位姿估计。
通过上述分析,现有技术存在的问题及缺陷为:现有技术中,基于滤波器的激光SLAM复杂度高且定位精度不高,适用性差。
实现思路