基于多RGB-D相机的鲁棒视觉SLAM研究
发布时间:2021-11-15 15:35
随着科技的不断发展,机器人已经融入到人们生产生活的方方面面,作为移动机器人的关键技术,同步定位和地图创建(SLAM)是当下机器人领域中的研究热点。视觉SLAM技术因其成本较低、视觉信息丰富等优点,引起了该领域的广泛关注,称为获取三维环境地图的重要研究方向。其中,基于RGB-D相机的视觉SLAM是近年来的重要研究方向。单个相机视域狭窄,受噪声以及局部的光照、纹理特征和视角等因素影响大,导致视觉SLAM的在运行过程中定位精度降低甚至出现跟踪丢失现象。对此,本文提出了一种多RGB-D相机视觉SLAM方法,通过使用多个RGB-D相机增加视域,提高视觉SLAM在复杂环境与视觉特征欠缺环境下的精度与鲁棒性。本文的主要工作如下:首先,为确定相机间的相对位姿,本文提出了一种由粗到细的多相机系统外参标定方法,用于标定任意方向配置的无重叠视域的多相机系统。标定分为两步,首先使用预先构建的环境稀疏点云地图对各相机进行PnP估计多相机系统的初始外参,然后构建位姿图,利用该初值进行位姿图优化获得精确的相对位姿。其次,针对多RGB-D相机下视觉SLAM的前端问题,本文提出了一种多RGB-D相机视觉SLAM系统模型...
【文章来源】:华东理工大学上海市 211工程院校 教育部直属院校
【文章页数】:81 页
【学位级别】:硕士
【部分图文】:
图2.1视觉SLAM结构??Fig.?2.1?Visual?SLAM?Structure??
第8页?华东理工大学硕士学位论文??第2章视觉SLAM算法理论基础??视觉SLAM系统主要由前端与后端两大部分组成,若进一步细分,通常包括四个模??块:前端VO、后端非线性优化、闭环检狈!]、地图构建,如图2.1所示。其中视觉里程计??估计相机运动,主要工作包括处理图像数据,提取特征点,根据匹配的特征点估计相机??的帧间位姿变化。后端优化用于消除前端中的噪声影响,提高位姿估计与建图的准确性,??通常使用图优化方法。为了消除SLAM运行过程中的出现的累积误差,还需要进行闭环??检测,其通过检测相同场景对SLAM增加闭环约束从而得到全局一致的轨迹及地图。??传感器数据|?刖〃而视苋里程计?f后端优化?f地图构建??RG_?"?[C>光束法平差?地fH??L?位姿阁优化?轨少2??v?y?\?/?v?y??'々\'?f闭环检测?'??BOW相似性检测?V’??计算相似变换??V?J??图2.1视觉SLAM结构??Fig.?2.1?Visual?SLAM?Structure??2.1相机模型??相机工作时将物体从三维世界中投影到二维图像平面上,这个过程可以用一个几何??模型来描述,称为投影模型,最简单的投影模型是针孔相机模型[42]。??2.1.1针孔相机模型??针孔相机模型是一种理想化的投影模型,描述了三维空间中一个点的坐标通过一个??理想的针孔相机投影到图像平面过程中的数学关系。该模型中相机的光圈孔径极小,视??为一个点且不考虑光圈引起的几何畸变,因此针孔相机模型只能用作三维场景到二位图??像的一阶近似投影。针孔相机模型如图2.2所示。??Z?像平面??图2.2针孔相机模型??F
华东理工大学硕士学位论文?第9页??图2.2中,户为三维空间中的一个点,C表示相机光心,0丨x少平面为图像平面,p点??是P点在图像平面的投影,CCh是焦距。设尸点相对于光心C的坐标为[X,F,Z]T,投影??点;;的坐标为[x,y]T,相机焦距/=(:〇,根据几何关系,有:??Z?X?Y?…、??7?=?_?=?_?(2-1)??f?x?y??整理后得??(?X??x?=厶7??|?y?(2-2)??ly?=?fyz??其中A,?分别为x轴与轴方向上的焦距。??成像平面的物体需要显示在屏幕上,因此还需要转换到像素坐标系中。设像素坐标??系在X轴、y轴方向上的坐标轴分别为w,v,有转换关系:??(?X??\u?=?fx ̄^?+?cx??I?y?(2-3)??[y?=?fy?2+?cy??其中cx,^分别是光心在像素平面的投影点的像素坐标,如图2.3所示。??〇0?cx??-H??%??Cy?'?1???'p——^ ̄???★?V?y?|??图2.3像素平面??Fig.?2.3?Pixel?Plane??若使用矩阵形式,为??r^i?\fx?〇?cy?|X??Z?v?^?0?fy?cy?Y?=?KP?(2-4)??-V?[〇?〇?iJ[z.??
【参考文献】:
期刊论文
[1]基于图优化的多相机系统高精度自主定位方法[J]. 刘博文,杨凌辉,牛志远,徐秋宇,张正吉,王金旺. 激光与光电子学进展. 2019(03)
[2]低成本大视场深度相机阵列系统[J]. 宋爽,陈驰,杨必胜,李清泉. 武汉大学学报(信息科学版). 2018(09)
[3]RGB-D SLAM综述[J]. 王旒军,陈家斌,余欢,朱汇申. 导航定位与授时. 2017(06)
[4]未知环境中移动机器人并发建图与定位(CML)的研究进展[J]. 王璐,蔡自兴. 机器人. 2004(04)
硕士论文
[1]欠点特征环境的视觉同步定位与制图研究[D]. 戴立根.哈尔滨工业大学 2016
本文编号:3497052
【文章来源】:华东理工大学上海市 211工程院校 教育部直属院校
【文章页数】:81 页
【学位级别】:硕士
【部分图文】:
图2.1视觉SLAM结构??Fig.?2.1?Visual?SLAM?Structure??
第8页?华东理工大学硕士学位论文??第2章视觉SLAM算法理论基础??视觉SLAM系统主要由前端与后端两大部分组成,若进一步细分,通常包括四个模??块:前端VO、后端非线性优化、闭环检狈!]、地图构建,如图2.1所示。其中视觉里程计??估计相机运动,主要工作包括处理图像数据,提取特征点,根据匹配的特征点估计相机??的帧间位姿变化。后端优化用于消除前端中的噪声影响,提高位姿估计与建图的准确性,??通常使用图优化方法。为了消除SLAM运行过程中的出现的累积误差,还需要进行闭环??检测,其通过检测相同场景对SLAM增加闭环约束从而得到全局一致的轨迹及地图。??传感器数据|?刖〃而视苋里程计?f后端优化?f地图构建??RG_?"?[C>光束法平差?地fH??L?位姿阁优化?轨少2??v?y?\?/?v?y??'々\'?f闭环检测?'??BOW相似性检测?V’??计算相似变换??V?J??图2.1视觉SLAM结构??Fig.?2.1?Visual?SLAM?Structure??2.1相机模型??相机工作时将物体从三维世界中投影到二维图像平面上,这个过程可以用一个几何??模型来描述,称为投影模型,最简单的投影模型是针孔相机模型[42]。??2.1.1针孔相机模型??针孔相机模型是一种理想化的投影模型,描述了三维空间中一个点的坐标通过一个??理想的针孔相机投影到图像平面过程中的数学关系。该模型中相机的光圈孔径极小,视??为一个点且不考虑光圈引起的几何畸变,因此针孔相机模型只能用作三维场景到二位图??像的一阶近似投影。针孔相机模型如图2.2所示。??Z?像平面??图2.2针孔相机模型??F
华东理工大学硕士学位论文?第9页??图2.2中,户为三维空间中的一个点,C表示相机光心,0丨x少平面为图像平面,p点??是P点在图像平面的投影,CCh是焦距。设尸点相对于光心C的坐标为[X,F,Z]T,投影??点;;的坐标为[x,y]T,相机焦距/=(:〇,根据几何关系,有:??Z?X?Y?…、??7?=?_?=?_?(2-1)??f?x?y??整理后得??(?X??x?=厶7??|?y?(2-2)??ly?=?fyz??其中A,?分别为x轴与轴方向上的焦距。??成像平面的物体需要显示在屏幕上,因此还需要转换到像素坐标系中。设像素坐标??系在X轴、y轴方向上的坐标轴分别为w,v,有转换关系:??(?X??\u?=?fx ̄^?+?cx??I?y?(2-3)??[y?=?fy?2+?cy??其中cx,^分别是光心在像素平面的投影点的像素坐标,如图2.3所示。??〇0?cx??-H??%??Cy?'?1???'p——^ ̄???★?V?y?|??图2.3像素平面??Fig.?2.3?Pixel?Plane??若使用矩阵形式,为??r^i?\fx?〇?cy?|X??Z?v?^?0?fy?cy?Y?=?KP?(2-4)??-V?[〇?〇?iJ[z.??
【参考文献】:
期刊论文
[1]基于图优化的多相机系统高精度自主定位方法[J]. 刘博文,杨凌辉,牛志远,徐秋宇,张正吉,王金旺. 激光与光电子学进展. 2019(03)
[2]低成本大视场深度相机阵列系统[J]. 宋爽,陈驰,杨必胜,李清泉. 武汉大学学报(信息科学版). 2018(09)
[3]RGB-D SLAM综述[J]. 王旒军,陈家斌,余欢,朱汇申. 导航定位与授时. 2017(06)
[4]未知环境中移动机器人并发建图与定位(CML)的研究进展[J]. 王璐,蔡自兴. 机器人. 2004(04)
硕士论文
[1]欠点特征环境的视觉同步定位与制图研究[D]. 戴立根.哈尔滨工业大学 2016
本文编号:3497052
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3497052.html