融合双目视觉和惯性的定位技术研究
发布时间:2021-01-11 20:01
随着无人驾驶、人工智能和移动机器人等技术的不断发展,视觉/惯性组合导航定位技术逐步成为这些研究领域不可或缺的研究方向之一,受到了科学研究人员的广泛关注。视觉/惯性组合导航定位系统将低成本、小型化的惯性测量单元(IMU)和摄像机组合在一起,既可以利用相机提供的丰富场景信息来修正IMU的累积漂移,又能够利用IMU输出的载体自身运动信息为双目视觉系统提供更为精确的初始位姿信息,并通过二者信息融合解算出载体在惯性空间中位置和姿态,该系统充分利用了视觉和惯性的性能互补关系进行载体的导航和定位。本文通过双目视觉相机和MEMS惯性测量单元组成的导航定位系统进行载体的运动状态估计,采用导航定位精度更高的非线性优化紧耦合方案进行多传感器信息融合的位姿解算。首先,对双目视觉导航系统中涉及到的坐标系进行定义并明确了相机坐标系到世界坐标系的变换关系,分析了摄像机的张氏标定方法,对比分析了SIFT、Harris、ORB和SURF四种主流的图像特征点检测方法,进而验证了其中的ORB特征点检测方法的最优性,并基于RANSAC方法给出了特征点误匹配的去除算法,采用ICP方法估计载体的运动状态,通过特征提取匹配并对图像...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:68 页
【学位级别】:硕士
【部分图文】:
中国“玉兔号”
哈尔滨工业大学工程硕士学位论文-9-图2-1棋盘格标定板设棋盘格上随机一点的世界坐标为Twww=ZYXP]1[,图像坐标T=vuq1,由公式(2-1)可得:PTRMqZcT=101(2-1)空间参考坐标系平面选取棋盘格平面,则wZ=0,那么P可写TwwYX]1[,则将式(2-1)进一步简化:pPTrrsM211=Phhh321=(2-2)=HP其中c=Zs/1叫做比例因子,矩阵H被称为单应性矩阵,是由最优化算法解算得到的。旋转矩阵R是单位正交矩阵,同时满足021rrT=,121rr==,由式(2-2)中对应关系可得到:==2111211111211110MhMhMhMhMhMhTTTTTT(2-3)设111~~=MMBT,矩阵B由摄像机内参组成,同时满足对称矩阵关系。将B表示成一个六位向量,如(2-4)所示,同时矩阵H的第i列表示为Tiiiihhhh321=,则(2-3)可表示为式(2-5)332313221211=BBBBBBB(2-4)0)(121112=BvvvTT(2-5)上式中Tjijijijijijijijijiijhhhhhhhhhhhhhhhhhhv333223311322122111+++=。摄像
哈尔滨工业大学工程硕士学位论文-14-值发生明显变化。对于待测像素点vu),(,定义出的灰度变化函数公式如(2-9)所示。2,++=)],(),()[,(),(vuwyxEvuxIuuvuIy(2-9)式中,w(u,v)为窗口函数,可用高斯窗或者是矩形窗都可以。(x,y)作为平移量。当(x,y)较小时,通过泰勒展开,可以得到式:yx),(MyxyxE(2-10)=vuvyuvuuIIIIIIvuwM,22),((2-11)设1,2为矩阵M的两个特征值,当二者都较大时,窗口无论向哪个方向移动都会带来明显的灰度变化,则该点为角点;当二者一个特征值大另一个特征值较小时,窗口沿着某个方向移动时,灰度值变化大,而另一个方向变化却很小,这说明这个点位于图像边缘;当二者特征值都较小时,这个点则是内点,位于图像的平坦区。通过前面对四种算法的分析,分别对四种算法提取图像特征点的效果进行了实测对比。主要包括四种情况:第一种情况是图片平移后,特征点的检测是否受影响,确定检测效果更好的算法;第二种情况是图片发生旋转,特征点的检测是否受影响,确定检测效果更好的算法;第三种情况是图片发生尺度变化,即缩放,特征点的检测是否受影响,确定检测效果更好的算法;第四种情况是光照强度发生变化,特征点的检测是否受影响,确定检测效果更好的算法。从上到下依次为SIFT、SURF、ORB、Harris的检测效果:图2-2SIFT特征检测结果
【参考文献】:
期刊论文
[1]2018年国外惯性技术发展与回顾[J]. 薛连莉,戴敏,葛悦涛,陈少春. 飞航导弹. 2019(04)
[2]2017年国外惯性技术发展与回顾[J]. 薛连莉,陈少春,陈效真. 导航与控制. 2018(02)
[3]室内移动机器人视觉里程计研究[J]. 高云峰,李伟超,李建辉. 传感器与微系统. 2012(02)
[4]基于单目视觉的移动机器人全局定位[J]. 厉茂海,洪炳镕,罗荣华,蔡则苏. 机器人. 2007(02)
博士论文
[1]高精度实时视觉定位的关键技术研究[D]. 卢维.浙江大学 2015
[2]车辆运动特性约束的智能车辆视觉里程计系统研究[D]. 江燕华.北京理工大学 2014
硕士论文
[1]基于上下文相关性的视觉特征表示及其应用[D]. 娄天禺.北京交通大学 2012
[2]基于视觉的机器人定位研究[D]. 李永佳.浙江大学 2011
[3]立体视觉里程计关键技术与应用研究[D]. 彭勃.浙江大学 2008
本文编号:2971390
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:68 页
【学位级别】:硕士
【部分图文】:
中国“玉兔号”
哈尔滨工业大学工程硕士学位论文-9-图2-1棋盘格标定板设棋盘格上随机一点的世界坐标为Twww=ZYXP]1[,图像坐标T=vuq1,由公式(2-1)可得:PTRMqZcT=101(2-1)空间参考坐标系平面选取棋盘格平面,则wZ=0,那么P可写TwwYX]1[,则将式(2-1)进一步简化:pPTrrsM211=Phhh321=(2-2)=HP其中c=Zs/1叫做比例因子,矩阵H被称为单应性矩阵,是由最优化算法解算得到的。旋转矩阵R是单位正交矩阵,同时满足021rrT=,121rr==,由式(2-2)中对应关系可得到:==2111211111211110MhMhMhMhMhMhTTTTTT(2-3)设111~~=MMBT,矩阵B由摄像机内参组成,同时满足对称矩阵关系。将B表示成一个六位向量,如(2-4)所示,同时矩阵H的第i列表示为Tiiiihhhh321=,则(2-3)可表示为式(2-5)332313221211=BBBBBBB(2-4)0)(121112=BvvvTT(2-5)上式中Tjijijijijijijijijiijhhhhhhhhhhhhhhhhhhv333223311322122111+++=。摄像
哈尔滨工业大学工程硕士学位论文-14-值发生明显变化。对于待测像素点vu),(,定义出的灰度变化函数公式如(2-9)所示。2,++=)],(),()[,(),(vuwyxEvuxIuuvuIy(2-9)式中,w(u,v)为窗口函数,可用高斯窗或者是矩形窗都可以。(x,y)作为平移量。当(x,y)较小时,通过泰勒展开,可以得到式:yx),(MyxyxE(2-10)=vuvyuvuuIIIIIIvuwM,22),((2-11)设1,2为矩阵M的两个特征值,当二者都较大时,窗口无论向哪个方向移动都会带来明显的灰度变化,则该点为角点;当二者一个特征值大另一个特征值较小时,窗口沿着某个方向移动时,灰度值变化大,而另一个方向变化却很小,这说明这个点位于图像边缘;当二者特征值都较小时,这个点则是内点,位于图像的平坦区。通过前面对四种算法的分析,分别对四种算法提取图像特征点的效果进行了实测对比。主要包括四种情况:第一种情况是图片平移后,特征点的检测是否受影响,确定检测效果更好的算法;第二种情况是图片发生旋转,特征点的检测是否受影响,确定检测效果更好的算法;第三种情况是图片发生尺度变化,即缩放,特征点的检测是否受影响,确定检测效果更好的算法;第四种情况是光照强度发生变化,特征点的检测是否受影响,确定检测效果更好的算法。从上到下依次为SIFT、SURF、ORB、Harris的检测效果:图2-2SIFT特征检测结果
【参考文献】:
期刊论文
[1]2018年国外惯性技术发展与回顾[J]. 薛连莉,戴敏,葛悦涛,陈少春. 飞航导弹. 2019(04)
[2]2017年国外惯性技术发展与回顾[J]. 薛连莉,陈少春,陈效真. 导航与控制. 2018(02)
[3]室内移动机器人视觉里程计研究[J]. 高云峰,李伟超,李建辉. 传感器与微系统. 2012(02)
[4]基于单目视觉的移动机器人全局定位[J]. 厉茂海,洪炳镕,罗荣华,蔡则苏. 机器人. 2007(02)
博士论文
[1]高精度实时视觉定位的关键技术研究[D]. 卢维.浙江大学 2015
[2]车辆运动特性约束的智能车辆视觉里程计系统研究[D]. 江燕华.北京理工大学 2014
硕士论文
[1]基于上下文相关性的视觉特征表示及其应用[D]. 娄天禺.北京交通大学 2012
[2]基于视觉的机器人定位研究[D]. 李永佳.浙江大学 2011
[3]立体视觉里程计关键技术与应用研究[D]. 彭勃.浙江大学 2008
本文编号:2971390
本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/2971390.html