当前位置:主页 > 科技论文 > 航空航天论文 >

基于循环卷积网络的小行星绕飞段视觉相对位姿估计算法研究

发布时间:2020-04-20 20:31
【摘要】:深空小行星的探测与资源利用是空间科学领域的重要发展方向,而探测器在未知环境小行星探测任务中的巡视、绕飞、着陆等阶段中高精度定位导航是当前面临的关键难题。由于深空通信周期较长,小行星探测器必须具有较强的自主导航能力,才能保证探测任务的实施。利用视觉传感器感知周围环境信息的导航方式,即视觉导航,可以在接近行星的过程中通过光学相机拍摄图像获取更多的特征信息而提高导航精度。在视觉导航领域,视觉SLAM(simultaneous localization and mapping,即时定位与地图构建)算法是目前的研究热点,该算法不仅能够利用视觉图像之间的相关性进行相对定位与场景构图,还能保证一定实时性,无论是对于未知小行星探测任务中相对定位、导航与避障,还是用于结合轨道动力学的轨道修正,乃至探测器自主决策,都有重大意义。视觉SLAM算法前端通常是采用特征点法关联相邻图像信息,即提取图像特征并匹配,由此结合图像间几何关系求得相机相对位姿信息。由于小行星表面地形未知且光照环境复杂,可能会出现光照强度变化和局部阴影变化。这些变化会影响提取图像特征的准确性,进而影响视觉定位与导航的精度。因此,我们需要一种可以对于光照变化具有稳定性的图像特征提取及匹配算法,进而得到较精确的相机相对位姿。由于传统的特征点算法无法兼顾高精度与高效率,对实时性要求高的SLAM算法通常考虑一些适当降低精度和健壮性以提升计算速度的特征算法,但其对光照变化的稳定性能较差。近几年,深度学习算法在图像处理领域是研究热点,其利用卷积神经网络(CNN)在图像处理任务中代替手工提取特征而提高算法性能,且深度学习算法可通过大量数据驱动学习对光照变化等干扰的适应性。在小行星探测器绕飞阶段,相机的拍摄场景与航拍场景相似,而单应性矩阵可以用于航拍场景,因此,本文提出了一个基于单应性矩阵的位姿估计方法,其中单应性矩阵估计算法是基于深度学习的,它通过学习后能够对各类小行星环境的视觉图像进行特征提取和单应性矩阵估计。同时,考虑到飞行器受轨道动力学约束所表现的飞行连贯性和循环网络(RNN)可处理时序信号的特性,单应性矩阵估计算法采用一个基于循环卷积网络(RNN-CNN)的框架,提高了单应性矩阵的估计精度,并兼顾对光照变化、几何形变等干扰的鲁棒性。最后,通过小行星环境仿真与成像模拟生成了一系列探测器绕飞阶段的小行星表面图像,并将本文算法应用于该图像序列的位姿估计,测试本文算法的性能。本文的主要工作概括如下:1.用公开数据集分别训练有监督与无监督的基于CNN的单应性估计网络的模型参数,并测试对比两者的估计误差和对光照变化的稳定性。此外,为了得到对光照变化稳定性较好的模型,引入光照噪声做数据增强,改进网络结构,并调整损失函数;2.考虑到输入图像的序列性,在基于CNN的单应性估计网络框架的基础上引入RNN结构构建时序模型,得到一个无监督的基于RNN-CNN的单应性估计网络,提高了网络的估计精度和对光照变化的稳定性;3.通过小行星表面的光照、阴影的仿真和小行星探测器在绕飞阶段的运动模拟,并结合成像模拟生成小行星表面图像序列。应用本文的算法估计小行星表面图像序列的相对位姿,通过位姿估计结果与相关算法比较,表明了本文算法在实时性和精度方面具有综合优势。
【图文】:

场景,光照,视觉定位,特征匹配


下面为 SIFT 特征的匹配结果。可以看到,阴影位置的变化盖原来提取特征点的像素团,这样局部的光照变化可能会影响特征提取,进而影响视觉定位的精度。图 1.1 光照不足条件下(左)和光照充足条件下(右)的特征匹配.1.1 Feature matching under poor light conditions (left) and under abundant light cond(right)

框架图,里程计,特征点法,视觉


相邻两帧图像之间的相对位姿估计是实现视觉里程计的主要思想,视觉移动机器人视觉定位的基础算法,它主要是通过估计相邻图像之间的相并根据几何约束优化位姿信息,从而估算出移动机器人的运动轨迹。Mo[2]提出了从连续的图像序列中估计相机运动,并在其研发的斯坦福小车体视觉估计小车的位姿,他们利用单个相机在轨道上平移而得到立体相。在 1987 年,Matthies 等人[3]提出一个视觉里程计的基本理论框架,这及到特征提取、特征匹配与跟踪、运动估计。NASA 将视觉里程计应用测器上[3-5],证明了基于视觉的位姿估计方法的能力,并推动了基于视体位姿估计的研究。2004 年,,“视觉里程计”这一术语首次出现在文献[6献还实现了一种实时视觉里程计,并分别给出了在单目视觉和立体视觉下视觉里程计的实现流程,同时也进一步完善了视觉里程计的框架。随里程计的深入研究,其实现框架可以概括为三个步骤:特征提取及匹配计、滤波器优化或非线性优化。
【学位授予单位】:中国科学院大学(中国科学院国家空间科学中心)
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:V448.2;TP391.41

【相似文献】

相关期刊论文 前10条

1 茹祥宇;金潮;潘成峰;许超;;单目视觉惯性融合方法在无人机位姿估计中的应用[J];控制与信息技术;2018年06期

2 曾霞霞;李佐勇;林文如;;一种基于随机森林的头部位姿估计算法[J];福建师范大学学报(自然科学版);2016年04期

3 宋亮;李志;马兴瑞;;基于激光成像雷达的未知目标相对位姿估计算法[J];系统仿真学报;2017年05期

4 徐萧萧;王智灵;陈宗海;;视频序列中基于头肩分割的人体位姿估计算法[J];中国图象图形学报;2010年12期

5 臧雨飞;谈英姿;;基于救援机器人灵活操控的目标位姿估计研究[J];工业控制计算机;2018年06期

6 张正鹏;张强;;车载全景序列影像的位姿估计优化方法[J];测绘科学;2017年12期

7 屈也频;张超然;吕余海;;基于机器视觉的最大似然位姿估计算法[J];应用光学;2019年02期

8 吴妍;吴芬;戚国庆;;基于人工标志的单目视觉下无人机位姿估计[J];电子设计工程;2017年12期

9 刘然;范秀敏;尹旭悦;王冀凯;杨旭;;AR辅助装配中基体及零件位姿组合估计方法[J];机械设计与研究;2018年06期

10 朱枫;秦丽娟;谈大龙;;量化误差对直线位姿估计精度影响的研究[J];机器人;2007年04期

相关会议论文 前7条

1 张捚豪;杨旭升;冯远静;李永强;张文安;;基于自适应无迹卡尔曼滤波和单目视觉的运动刚体位姿估计[A];第37届中国控制会议论文集(C)[C];2018年

2 张鑫;张雅声;姚红;;基于SoftPOSIT算法的非合作目标相对位姿估计[A];系统仿真技术及其应用学术论文集(第15卷)[C];2014年

3 周船;谈大龙;朱枫;;基于模型的位姿估计中优化方法研究[A];第二届全国信息获取与处理学术会议论文集[C];2004年

4 李博;王孝通;徐晓刚;杨常青;;舰载直升机位置姿态测量方法研究[A];可持续发展的中国交通——2005全国博士生学术论坛(交通运输工程学科)论文集(下册)[C];2005年

5 吴清潇;郝颖明;李硕;朱枫;;基于视觉伺服的水下机器人悬停定位[A];2007中国控制与决策学术年会论文集[C];2007年

6 刘玺;方勇纯;张雪波;;基于单应矩阵的位姿估计方法及应用[A];第二十七届中国控制会议论文集[C];2008年

7 姚红;程文华;张雅声;汤亚锋;;仅使用单目视觉的航天器自主逼近控制仿真[A];空天资源的可持续发展——第一届中国空天安全会议论文集[C];2015年

相关博士学位论文 前10条

1 陈鹏;基于单目视觉的像机位姿估计技术[D];北京科技大学;2015年

2 王可;基于变分模型的移动机器人三维环境建模方法研究[D];北京工业大学;2016年

3 张跃强;基于直线特征的空间非合作目标位姿视觉测量方法研究[D];国防科学技术大学;2016年

4 李鑫;基于视觉的位姿估计与点目标运动测量方法研究[D];国防科学技术大学;2015年

5 江士雄;面向位姿估计的相机系统标定方法研究[D];华中科技大学;2016年

6 李由;基于轮廓和边缘的空间非合作目标视觉跟踪[D];国防科学技术大学;2013年

7 徐伟杰;基于视觉的微小型无人直升机位姿估计与目标跟踪研究[D];浙江大学;2012年

8 崔家山;三维运动立体视觉测量方法研究[D];哈尔滨工业大学;2016年

9 桂阳;基于机载视觉的无人机自主着舰引导关键技术研究[D];国防科学技术大学;2013年

10 洪裕珍;空间非合作目标的单目视觉姿态测量技术研究[D];中国科学院光电技术研究所;2017年

相关硕士学位论文 前10条

1 吴炎桐;基于无监督学习的相机位姿估计算法研究[D];北京邮电大学;2019年

2 李媛;基于循环卷积网络的小行星绕飞段视觉相对位姿估计算法研究[D];中国科学院大学(中国科学院国家空间科学中心);2019年

3 陈玉寅;基于卡尔曼滤波器的运动刚体位姿估计方法研究[D];浙江工业大学;2018年

4 孙俊逸;基于三维人体姿态估计的老人跌倒检测[D];郑州大学;2019年

5 苏俊钦;基于计算机视觉的无人飞行器位姿估计方法研究[D];哈尔滨工业大学;2018年

6 付泰;调运态势监测及避碰技术研究[D];国防科学技术大学;2016年

7 张澄宇;自动泊车路径规划及泊车位姿估计算法研究[D];合肥工业大学;2018年

8 秦瑞康;基于全参数自适应粒子群算法的单目标定与位姿估计研究[D];扬州大学;2018年

9 乔明起;基于深度神经网络的视觉位姿估计方法研究[D];中国科学技术大学;2018年

10 李浩琛;基于深度学习的工业机器人目标定位及位姿估计研究[D];中国科学院大学(中国科学院重庆绿色智能技术研究院);2018年



本文编号:2634932

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/hangkongsky/2634932.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户154a3***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com