基于自监督学习特征的视觉同步定位与地图构建研究
发布时间:2021-10-23 20:01
在机器人学的领域中,视觉同步定位与地图构建技术(VSLAM)应用于室内外机器人定位、机器人导航与避障、机器人人机交互等领域。特征点法VSLAM由于其定位精度好的特点得到广泛应用,但是由于摄像头拍摄光照变化、视角变化、噪声干扰等因素,导致所提取的特征点位置漂移和匹配错误,使得VSLAM在摄像头拍摄条件复杂的室内环境和室外环境下定位精度降低甚至跟踪丢失。为了解决VSLAM鲁棒性不足这一问题,本课题从特征检测角度入手,使用自监督学习方法,设计并训练特征检测网络对特征点进行定位及描述,以此搭建自监督特征VSLAM,提高VSLAM系统在复杂环境下的鲁棒性和定位准确性。本课题主要工作如下:首先,本课题以特征检测算法为切入点对VSLAM系统的鲁棒性提升方法进行研究。基于VSLAM相关理论及问题,本课题通过对VSLAM不同部分的分析和对国内外研究现状的了解,发现特征检测算法对于特征点法VSLAM系统有重要意义。因此,本课题提出使用具有高鲁棒性的深度卷积神经网络作为特征检测算法,从而有效提升VSLAM系统在复杂视觉环境下的性能。其次,本课题设计自监督学习策略训练特征检测网络对图像特征点进行提取。该特征检...
【文章来源】:华东理工大学上海市 211工程院校 教育部直属院校
【文章页数】:99 页
【学位级别】:硕士
【部分图文】:
图1.丨机器人应用领域??
华东理工大学硕士学位论文?第7页??内存占用量。因此,对于特征点法VSLAM来说,需要一种实时性高,内存占用小,匹??配性能好的高鲁棒性特征检测算法。??flss?aai:??图1.2特征检测算法示例??Fig.?1.2?An?Example?of?Interest?Point?Detection?Algorithm??现阶段深度学习对于特征检测算法同样有着丰富的前沿研究成果,LIFTPU,UCNim,??TILDEPl等算法证明了使用DCNim进行监督学习能够提取性能出众的特征点和描述子。??L1FT[71]旨在通过监督学习提取经过SFM174]S滤后的DoG113】输出特征,TILDEl73]同样使??用DCN【15]建立训练集数据。然而,上述深度学习特征检测算法均需要较大规模的特征??点数据集,一般通过3D物体建模后投影至数字图像匹配,或是通过人工设定标签完成,??耗时耗力。??1.2.4自监督学习算法研宄现状??深度学习的学习机制大致可分为监督学习(Supervised?Learning),非监督学习??(Unsupervised?Learning),半监督学习(Semi-Supervised?Learning)三大类别,而自监督??学习(Se丨f-Supervised?Learning)是非监督学子类之一■,Longlong|7:)l为这些学习机制做??了如下定义:??(1)监督学习:指使用经过人工进行精密标定的数据对深度神经网络等模型进行训??练的学习机制;??(2)非监督学习:指使用完全不需要人工进行标定的数据对深度神经网络等模型进??行训练的学习机制;??(3)半监督学习:指使用较少数量的人工标
第14页?华东理工大学硕士学位论文??信息进行观测,随着图像处理技术的提升和硬件成本的降低,视觉传感器,即摄像头,??正逐渐发展为环境感知的关键途径。在VSLAM的运行过程中,视觉传感器以一定的速??率对周遭的环境进行拍摄,拍摄图像形成一段连续的视频流,普通的民用级摄像头能够??以将近30帧每秒(FPS)的速率采集720p图像并输出,而专业级的高速摄像头甚至能??够达到数千帧每秒的速率。如图2.2所示,根据工作原理和输出模式,视觉传感器可分??为单目摄像头(Monocular?Camera?)、双目摄像头(Stereo?Camera)和RGB-D摄像头(RGB-??D?Camera)三种基本类别,而随着VSLAM技术和图像处理技术的发展,鱼眼摄像头??(Fish?EyeCamera)和全景摄像头(Panoramic?came丨-a)也开始被研宄应用于VSLAM和??其他机器人学领域=??2.2.1单目摄像头成像原理??单目摄像头,即RGB摄像头,优点在于结构简单,成本低廉,也是双目摄像头和??RGB-D摄像头的基础元件之一。RGB摄像头的几何模型多为针孔模型(PinholeCamera??Model)或是镜头模型(Lens?Model),如图2.3所示。??目标?屏障?、图像??(a)针孔模型??目标?镜片?^图像??(b)镜头模型??图2.3摄像头几何模型??Fig.?2.3?Camera?Models??视觉传感器主要负责观测周围环境,所谓观测即对摄像头视域范围内的环境成像的??过程,针孔模型能够将3D世界下目标上各个点投影到2D平面形成图像,其成像关系??如2.4(a)所不。摄像头平面以坐标系表
【参考文献】:
期刊论文
[1]基于单目视觉的移动机器人SLAM系统构建[J]. 邓明华,陈云红,王晶晶. 南方农机. 2019(01)
[2]基于双三次插值算法的图像缩放引擎的设计[J]. 张阿珍,刘政林,邹雪城,向祖权. 微电子学与计算机. 2007(01)
硕士论文
[1]SLAM中图像特征匹配算法研究及其硬件实现[D]. 何茜.西安理工大学 2019
[2]基于ORB的大视角变化下V-SLAM鲁棒性研究[D]. 祁亮亮.西安理工大学 2019
[3]基于CNN与多源图像的场景识别算法研究[D]. 刘小艳.桂林电子科技大学 2019
[4]基于VSLAM的移动机器人研究[D]. 柯宇.电子科技大学 2019
[5]基于RGB-D图像的SLAM问题关键技术研究[D]. 王剑楠.南京航空航天大学 2017
本文编号:3453819
【文章来源】:华东理工大学上海市 211工程院校 教育部直属院校
【文章页数】:99 页
【学位级别】:硕士
【部分图文】:
图1.丨机器人应用领域??
华东理工大学硕士学位论文?第7页??内存占用量。因此,对于特征点法VSLAM来说,需要一种实时性高,内存占用小,匹??配性能好的高鲁棒性特征检测算法。??flss?aai:??图1.2特征检测算法示例??Fig.?1.2?An?Example?of?Interest?Point?Detection?Algorithm??现阶段深度学习对于特征检测算法同样有着丰富的前沿研究成果,LIFTPU,UCNim,??TILDEPl等算法证明了使用DCNim进行监督学习能够提取性能出众的特征点和描述子。??L1FT[71]旨在通过监督学习提取经过SFM174]S滤后的DoG113】输出特征,TILDEl73]同样使??用DCN【15]建立训练集数据。然而,上述深度学习特征检测算法均需要较大规模的特征??点数据集,一般通过3D物体建模后投影至数字图像匹配,或是通过人工设定标签完成,??耗时耗力。??1.2.4自监督学习算法研宄现状??深度学习的学习机制大致可分为监督学习(Supervised?Learning),非监督学习??(Unsupervised?Learning),半监督学习(Semi-Supervised?Learning)三大类别,而自监督??学习(Se丨f-Supervised?Learning)是非监督学子类之一■,Longlong|7:)l为这些学习机制做??了如下定义:??(1)监督学习:指使用经过人工进行精密标定的数据对深度神经网络等模型进行训??练的学习机制;??(2)非监督学习:指使用完全不需要人工进行标定的数据对深度神经网络等模型进??行训练的学习机制;??(3)半监督学习:指使用较少数量的人工标
第14页?华东理工大学硕士学位论文??信息进行观测,随着图像处理技术的提升和硬件成本的降低,视觉传感器,即摄像头,??正逐渐发展为环境感知的关键途径。在VSLAM的运行过程中,视觉传感器以一定的速??率对周遭的环境进行拍摄,拍摄图像形成一段连续的视频流,普通的民用级摄像头能够??以将近30帧每秒(FPS)的速率采集720p图像并输出,而专业级的高速摄像头甚至能??够达到数千帧每秒的速率。如图2.2所示,根据工作原理和输出模式,视觉传感器可分??为单目摄像头(Monocular?Camera?)、双目摄像头(Stereo?Camera)和RGB-D摄像头(RGB-??D?Camera)三种基本类别,而随着VSLAM技术和图像处理技术的发展,鱼眼摄像头??(Fish?EyeCamera)和全景摄像头(Panoramic?came丨-a)也开始被研宄应用于VSLAM和??其他机器人学领域=??2.2.1单目摄像头成像原理??单目摄像头,即RGB摄像头,优点在于结构简单,成本低廉,也是双目摄像头和??RGB-D摄像头的基础元件之一。RGB摄像头的几何模型多为针孔模型(PinholeCamera??Model)或是镜头模型(Lens?Model),如图2.3所示。??目标?屏障?、图像??(a)针孔模型??目标?镜片?^图像??(b)镜头模型??图2.3摄像头几何模型??Fig.?2.3?Camera?Models??视觉传感器主要负责观测周围环境,所谓观测即对摄像头视域范围内的环境成像的??过程,针孔模型能够将3D世界下目标上各个点投影到2D平面形成图像,其成像关系??如2.4(a)所不。摄像头平面以坐标系表
【参考文献】:
期刊论文
[1]基于单目视觉的移动机器人SLAM系统构建[J]. 邓明华,陈云红,王晶晶. 南方农机. 2019(01)
[2]基于双三次插值算法的图像缩放引擎的设计[J]. 张阿珍,刘政林,邹雪城,向祖权. 微电子学与计算机. 2007(01)
硕士论文
[1]SLAM中图像特征匹配算法研究及其硬件实现[D]. 何茜.西安理工大学 2019
[2]基于ORB的大视角变化下V-SLAM鲁棒性研究[D]. 祁亮亮.西安理工大学 2019
[3]基于CNN与多源图像的场景识别算法研究[D]. 刘小艳.桂林电子科技大学 2019
[4]基于VSLAM的移动机器人研究[D]. 柯宇.电子科技大学 2019
[5]基于RGB-D图像的SLAM问题关键技术研究[D]. 王剑楠.南京航空航天大学 2017
本文编号:3453819
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3453819.html