当前位置:主页 > 科技论文 > 航空航天论文 >

基于机载双目摄像头的无人机导航算法研究

发布时间:2020-03-30 13:53
【摘要】:自主导航是无人机研究中一个非常热门的研究方向。目前世界上已有的无人机导航技术大都是以GPS为主要的定位系统,虽然有少数方法使用视觉辅助导航,但是大部分的视觉定位主要是基于光流法,只能估计相对速度进行定点悬停。当无人机处于室内等GPS信号无效或者信号不好的时候,如何还能实现无人机的自主导航就是一个很大的挑战。基于以上问题,本文提出了基于机载摄像头的无人机视觉导航算法,来使无人机无需依赖任何外界传感器就可以实现未知环境下的自主导航。自主导航要解决以下三个问题:无人机要知道自己在世界中的位置信息;对周围的环境要有一定的认知,知道障碍物的位置信息;当知道自己的位置和障碍物的信息后,在给定一个目标点的位置后,可以规划出一条可行的路径到达目标点。对应的就是三个模块的实现:1.状态估计器实现视觉定位;2.环境感知建立三维稠密建图;3.无障碍碰撞的路径规划。本文首先通过视觉信息和惯性测量单元的信息进行扩展卡尔曼滤波得到无人机的状态估计信息。该方法通过基于当前机载坐标系的状态量表示,特征点逆深度表示,特征点方向在李代数空间上的表示,多层图像块金字塔的对齐,局部光束平差法(Bundle-Adjustment)的优化,实现一个不需要特别初始化过程,计算量小但是精度不错的状态估计器。针对周围环境的感知问题,本文利用概率模型和德劳内(Delaunay)三角划分法实现一个实时双目匹配算法,结合前述无人机位姿估计信息,建立所处环境的三维稠密地图。由于在双目视觉匹配过程中,双目图像中的很多点,其特征明显是很容易能得到正确的匹配,因此本文通过这些正确匹配点来构造德劳内三角划分,为那些尚未匹配的点提供先验的深度估计,从而可以缩小视差搜索的范围,减少计算量同时增加匹配的精度。在已有的稠密地图和飞行器的状态估计基础上进行路径规划。针对无人机计算资源有限并且系统状态空间维数大,本文使用一种启发式的快速探索随机树(RRT)算法。它的采样范围是启发式的,在得到一个最初的解后,算法会在这个解的基础上进行启发式采样,不断的优化目前的最优路径。该算法得到全局最优解需要的时间和计算资源都比一般的RRT算法少。最后为了验证提出的方案,本文搭建了六轴无人机进行实验验证,通过与运动捕捉系统的真实数据进行对比来说明算法的优势。通过稠密地图中障碍物的信息都准确出现在地图对应的位置上,并且可以实时的构建,说明了双目稠密建图方案的可行性。本文还示范了路径规划算法对不同的起始点,目标点的可行性,算法可以实时的完成路径规划的计算。本文提出的方案将对GPS失效环境下,机器人的自主导航应用起到重要的促进作用。
【图文】:

里程计,智能机器人,视觉,惯性


对室内室外环境都是可行的。基于视觉的自主导航技术在国内外的许多机器人上面都可以找到。如图1-1,美国 NASA 开发的火星探测器勇气号和机遇号就使用视觉里程计来进行定位导航[1],大疆的精灵 4 无人机配有两个立体视觉里程计进行自主定位导航避障,谷歌的无人驾驶汽车同样也使用视觉里程计进行辅助定位。但是现在基于

地图,系统框架


图 1-2 系统框架图的研究内容如下:本文将采用基于紧耦合的 EKF 方法来实现无人机的位姿估计元的数据进行 EKF 的预测过程,图像特征点对应的图像块强的测量数据,通过多层图像金字塔的图像块对齐更新预测过状态量采用基于当前机载坐标系的表征方法,并且特征点基时使用一个局部光束平差法(Bundle-Adjustment[28])对姿态进不需要特别的初始化过程。对于周围环境的感知问题,,本文将使用基于概率模型的双目人机位姿估计信息建立一个稠密的三维环境地图。不同于一先计算一些支持点的视差,然后通过德劳内(Delaunay)三像划分成一个个分段的三角形区域。这将为每个三角形平面算提供先验搜索范围,再通过概率模型算出其它点的在极线后将得到的点云转化为八叉树地图用于导航路径规划。在已有的稠密地图和飞行器位姿估计基础上,对一个给定的用启发式快速探索树(Informed-RRT*[30])算法,通过启发式
【学位授予单位】:哈尔滨工业大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:V279;V249.3

【参考文献】

相关期刊论文 前2条

1 倪磊;曾庆化;庄f

本文编号:2607629


资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/hangkongsky/2607629.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户cfb62***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com