基于IMU与立体视觉融合的SLAM方法研究
发布时间:2021-01-25 04:10
基于多传感器融合的同步定位与建图(Simultaneous Localization and Mapping,SLAM)具有精度高、鲁棒强及一致性好的优点,是目前SLAM领域的研究热点。惯性测量单元(Inertial Measurement Unit,IMU)短时定位精度高,但是长时间定位存在漂移问题。视觉传感器获取的纹理信息丰富、不存在误差积累,但在纹理特征不明显、遮挡、模糊或快速运动的情况下,无法实现定位。二者融合可以克服各自的不足,实现精度高、可靠性好的同步定位与建图,是目前研究较多的一类方法。针对该类融合方法,为了进一步减小数据关联过程中的累积误差,本文将基于DBoW3的视觉闭环检测方法引入IMU与立体视觉融合的SLAM中,并改进了边缘化处理方法。由于闭环检测及全局优化过程的引入及数据关联部分的优化,融合SLAM的精度和稳定性得到了较大的提高。论文完成的主要工作包括:(1)基于针孔相机模型及IMU误差模型,总结了 IMU与双目立体视觉融合的定位原理,在此基础上提出了一种改进的紧耦合惯性视觉融合方法。该方法以非线性优化的方式对IMU误差项和视觉重投影误差项进行优化,在局部优化时采...
【文章来源】:北京交通大学北京市 211工程院校 教育部直属院校
【文章页数】:95 页
【学位级别】:硕士
【文章目录】:
致谢
摘要
ABSTRACT
1 引言
1.1 研究背景及意义
1.2 国内外研究现状
1.2.1 IMU与视觉融合的SLAM方法
1.2.2 闭环检测方法
1.3 论文研究内容及结构
2 IMU/视觉融合定位的建模基础
2.1 IMU/视觉融合定位的坐标系统
2.1.1 IMU相关的坐标系及姿态表征
2.1.2 视觉相关的坐标系统及变换
2.1.3 IMU/视觉融合的SLAM坐标转换
2.2 惯性导航系统建模
2.2.1 IMU误差模型
2.2.2 IMU运动学模型
2.2.3 IMU预积分
2.3 双目视觉系统建模
2.3.1 双目相机模型
2.3.2 光速法平差
2.4 本章小结
3 基于IMU与立体视觉融合的SLAM方法
3.1 融合方法概述
3.2 融合建模方法
3.2.1 系统状态变量
3.2.2 视觉与IMU联合优化
3.2.3 改进的边缘化方法
3.3 基于DBoW3的闭环检测方法
3.3.1 闭环检测
3.3.2 基于DBoW3的闭环检测实现
3.4 基于Ceres的全局优化方法及实验结果
3.5 本章小结
4 改进的融合SLAM方法实验
4.1 实验平台的设计与实现
4.1.1 实验硬件系统
4.1.2 实验软件环境
4.2 IMU与摄像头标定实验
4.3 性能评价指标
4.4 实验与结果分析
4.4.1 基于纯视觉的定位和融合视觉与IMU的定位精度对比
4.4.2 基于Euroc标准数据集的实验
4.4.3 基于室外场景下校园数据集的实验
4.4.4 基于室内场景下采集的数据集实验
4.5 本章小结
5 总结与展望
5.1 工作总结
5.2 下一步工作
参考文献
图索引
表索引
作者简历及攻读硕士学位期间取得的研究成果
学位论文数据集
【参考文献】:
期刊论文
[1]鲁棒的非线性优化的立体视觉-惯导SLAM[J]. 林辉灿,吕强,王国胜,卫恒,梁冰. 机器人. 2018(06)
[2]Indoor Positioning System Using Axis Alignment and Complementary IMUs for Robot Localization[J]. ZHOU Qinqin,LEI Siyu,YU Zhangguo,LIN Hsien-I,CHEN Xuechao,ZHANG Weimin. 机器人. 2017(03)
[3]基于惯性传感器和视觉里程计的机器人定位[J]. 夏凌楠,张波,王营冠,魏建明. 仪器仪表学报. 2013(01)
硕士论文
[1]动态场景下的2D SLAM方法研究[D]. 杨阔.北京交通大学 2018
[2]基于ROS的惯性导航和视觉信息融合的移动机器人定位研究[D]. 王德智.哈尔滨工业大学 2017
本文编号:2998540
【文章来源】:北京交通大学北京市 211工程院校 教育部直属院校
【文章页数】:95 页
【学位级别】:硕士
【文章目录】:
致谢
摘要
ABSTRACT
1 引言
1.1 研究背景及意义
1.2 国内外研究现状
1.2.1 IMU与视觉融合的SLAM方法
1.2.2 闭环检测方法
1.3 论文研究内容及结构
2 IMU/视觉融合定位的建模基础
2.1 IMU/视觉融合定位的坐标系统
2.1.1 IMU相关的坐标系及姿态表征
2.1.2 视觉相关的坐标系统及变换
2.1.3 IMU/视觉融合的SLAM坐标转换
2.2 惯性导航系统建模
2.2.1 IMU误差模型
2.2.2 IMU运动学模型
2.2.3 IMU预积分
2.3 双目视觉系统建模
2.3.1 双目相机模型
2.3.2 光速法平差
2.4 本章小结
3 基于IMU与立体视觉融合的SLAM方法
3.1 融合方法概述
3.2 融合建模方法
3.2.1 系统状态变量
3.2.2 视觉与IMU联合优化
3.2.3 改进的边缘化方法
3.3 基于DBoW3的闭环检测方法
3.3.1 闭环检测
3.3.2 基于DBoW3的闭环检测实现
3.4 基于Ceres的全局优化方法及实验结果
3.5 本章小结
4 改进的融合SLAM方法实验
4.1 实验平台的设计与实现
4.1.1 实验硬件系统
4.1.2 实验软件环境
4.2 IMU与摄像头标定实验
4.3 性能评价指标
4.4 实验与结果分析
4.4.1 基于纯视觉的定位和融合视觉与IMU的定位精度对比
4.4.2 基于Euroc标准数据集的实验
4.4.3 基于室外场景下校园数据集的实验
4.4.4 基于室内场景下采集的数据集实验
4.5 本章小结
5 总结与展望
5.1 工作总结
5.2 下一步工作
参考文献
图索引
表索引
作者简历及攻读硕士学位期间取得的研究成果
学位论文数据集
【参考文献】:
期刊论文
[1]鲁棒的非线性优化的立体视觉-惯导SLAM[J]. 林辉灿,吕强,王国胜,卫恒,梁冰. 机器人. 2018(06)
[2]Indoor Positioning System Using Axis Alignment and Complementary IMUs for Robot Localization[J]. ZHOU Qinqin,LEI Siyu,YU Zhangguo,LIN Hsien-I,CHEN Xuechao,ZHANG Weimin. 机器人. 2017(03)
[3]基于惯性传感器和视觉里程计的机器人定位[J]. 夏凌楠,张波,王营冠,魏建明. 仪器仪表学报. 2013(01)
硕士论文
[1]动态场景下的2D SLAM方法研究[D]. 杨阔.北京交通大学 2018
[2]基于ROS的惯性导航和视觉信息融合的移动机器人定位研究[D]. 王德智.哈尔滨工业大学 2017
本文编号:2998540
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2998540.html