复杂环境下视觉伺服检测方法及在并联机器人中的应用研究

发布时间:2019-09-30 19:57
【摘要】:目前,复杂环境下的视觉伺服检测所涉及的各种难题均为图像处理与模式识别领域内较难克服的问题。如何能够在光照不均和低照度下找到视觉伺服检测的目标显得尤为重要,本论文针对在复杂环境下的视觉伺服检测任务,分别研究了各个关键环节,主要研究成果包括如下几个方面:(1)针对视觉注意模式提取的焦点存在关联性问题,提出了一种多视觉注意模式融合的复杂场景特征面片提取方法。为了避免复杂环境下各种干扰,首先通过视网膜皮层算法获得良好的图像增强效果,并借鉴了多种视觉注意模式提取视觉焦点的方式,设计了集成视觉注意模式;在这种集成视觉注意模式的提取下获得了初始视觉焦点集,通过交互信息量与结构相似性两种度量方式形成的关联矩阵判定需要融合的视觉焦点集标号,在视觉焦点融合算法中,将需要融合的视觉焦点进行融合后的能量分配;为了快速得到视觉焦点融合后的特征区域,采用凸包能量分配一致性将关联的视觉焦点区域的能量均匀分布,最终获得了完整性与鲁棒性均符合要求的特征区域;将这种方法应用到复杂场景下并联机器人上的特征面片提取,获得了良好的效果,为复杂环境下双目摄像机标定做好了铺垫。(2)针对复杂环境下难以提取标定参照物的边缘信息,设计了两种边缘检测方法,第一种是短步长仿射变换下的索贝尔提取方法,尽管在速度和效果上能够达到视觉伺服的要求,然而所获得边缘不能保证闭合,这样稍后的边缘矩与边缘仿射不变矩就无法应用;第二种是显著窄带活动轮廓模型,借鉴了C-V模型,设计出先通过视觉注意模式提取视觉焦点,而后将视觉焦点的边缘作为C-V模型的初始边界,并在窄带的基础上进行快速演化,获得了良好的光滑封闭曲线,最后,通过实验验证了所提出的显著窄带C-V模型的有效性和鲁棒性。(3)针对复杂环境下的双目摄像机难以标定的问题,提出了一种边缘矩标定双目摄像机的方法。借鉴仿射不变矩理论,设计了边缘仿射不变矩,并将其用于场景中的目标识别,对在复杂环境下排除非标定参照物提供可靠的保证;在边缘矩的定义下,建立了边缘矩增量与摄像机位姿增量之间的关联方程,并据此获得摄像机的内、外参数,通过实验验证了基于边缘矩的双目摄像机标定能够保证在复杂环境下摄像机标定的准确性与鲁棒性。(4)针对视觉伺服检测中弱纹理图像难以找寻特征点导致无法在复杂环境下进行立体匹配问题,设计了一种适合于弱纹理下视觉伺服的立体匹配方法。借鉴SIFT算法获得了大量的特征描述子,通过Meanshift特征选择机制,设计了Meanshift弱纹理特征描述子,将这种特征描述子应用在立体匹配的同名点特征描述上,通过图割优化算法,标注搜索到的同名特征点,将这些标记过的同名特征点进行分段离散,获得视觉深度图,最后通过验证在复杂环境下,这种弱纹理特征描述子在立体匹配的效果和自适应性上优于SIFT、SURF和NCC获得的结果。论文的最后总结全文的研究工作,并对以后的研究方向和内容进行了讨论和展望
【图文】:

模型图,自底向上,模型,基本处理


第一章 绪 论自底向上注意模式是由外界信号自身的特性来驱动注意的导向,因而没有针对任何特定对象。图 1-1 展示了典型的自底向上注意模式的基本处理过程,其中,,RA、FE、SC 和 CI 分别表示视网膜获取(Retinal acquisition)、特征提取(FeatureExtraction)搜索并选择(Searching and choosing)和竞争并排序(Competing andindexing)。

模型图,模型,经验知识,模式


身与高层知识无关,因而无法有意识地控制信息处理过程。由于单纯采用自底向上注意模式的不可控性,故而部分研究者转向了与之相对的自顶向下注意模式方向的研究。(2)自顶向下注意模式在自顶向下的注意模式中,视觉期望能快速的由观察者建立起来,然后针对由视觉注意前期所得到的视觉特征图进行有选择性的匹配,寻找最为匹配的目标,通常在寻找到之后对目标做相应的定位即可,如果并没有找到匹配的期望,则会进行知识更新并递交给经验知识,经验知识会通过相关操作对任务知识进行微调,以此完成反馈控制。图 1-2 展示了典型的自底向上注意模式模型,其中存放在观察者的知识库中的任务知识和经验知识可以进行部分更新和置换。显然,较好的将任务知识驱动的自顶向下的注意模式嵌入到图像信息处理中是很有必要的。由当前知识产生的任务搜寻在视觉信息处理中是必不可少的,这也非常符合人类视觉系统机理,即视觉系统并不是仅仅处理底层的数据,同时对来自人脑的任务知识会产生有目的的选择性注意。
【学位授予单位】:东华大学
【学位级别】:博士
【学位授予年份】:2016
【分类号】:TP391.41;TP242

【相似文献】

相关期刊论文 前10条

1 郭小勤,徐刚;机器人视觉伺服及路径规划的研究现状与发展趋势分析[J];机床与液压;2005年10期

2 武波;李惠光;徐鹏;;具有深度自适应估计的视觉伺服优化[J];控制理论与应用;2008年01期

3 刘丁;吴雄君;杨延西;辛菁;;基于改进变尺度混沌优化的自标定位置视觉伺服[J];自动化学报;2008年06期

4 廖万辉;李琳;陈祯;;基于嵌入式的智能视觉伺服系统的研发[J];机电产品开发与创新;2009年02期

5 谷雨;李平;韩波;;一种适用于局部特征的混合视觉伺服方法[J];控制与决策;2010年01期

6 欧阳格;王家序;徐超;邹凯;;无标定视觉伺服系统在灵巧手抓取目标时的应用[J];机械工程与自动化;2012年06期

7 郭峰,曹其新,赵言正,朱伟华;基于视觉伺服的倒立摆实验平台的研究[J];机械设计与研究;2003年04期

8 樊俊敏;;基于图像的双目视觉伺服机器人控制系统仿真[J];山西冶金;2006年04期

9 李国栋;周友行;王延伟;邓胜达;唐稳庄;;基于无标定视觉伺服机器人的运动物体跟踪[J];机械研究与应用;2007年01期

10 于殿勇;邓桦;葛连正;;基于速度补偿的视觉伺服视场控制[J];华中科技大学学报(自然科学版);2013年S1期

相关会议论文 前2条

1 邱新涛;罗熊;;机器人高速视觉伺服研究进展[A];2009年中国智能自动化会议论文集(第一分册)[C];2009年

2 王朝立;;基于视觉伺服反馈的一类非完整平面移动机器人的镇定[A];第二十三届中国控制会议论文集(下册)[C];2004年

相关博士学位论文 前10条

1 窦易文;复杂环境下视觉伺服检测方法及在并联机器人中的应用研究[D];东华大学;2016年

2 李优新;机器人无标定视觉伺服系统的多种智能控制方法研究[D];华南理工大学;2009年

3 王婷婷;带有约束的机器人视觉伺服控制方法的研究[D];江南大学;2012年

4 李牧;机器人无标定视觉伺服关键技术的研究[D];哈尔滨工业大学;2008年

5 张春龙;自然环境下农业机器人作业目标信息获取与视觉伺服策略研究[D];中国农业大学;2014年

6 梁新武;机械手无标定动态视觉伺服研究[D];华中科技大学;2011年

7 毛尚勤;微操作系统的机器视觉与无标定视觉伺服研究[D];华中科技大学;2013年

8 高振东;网络环境中的机器人视觉伺服及融合控制[D];上海交通大学;2007年

9 金梅;基于深度无关立体视觉模型的机器人控制系统研究[D];燕山大学;2010年

10 王捷;基于视觉的卫星在轨自维护操作的研究[D];哈尔滨工业大学;2009年

相关硕士学位论文 前10条

1 俞强强;基于视觉伺服的核燃料棒组装机器人位姿精确识别研究[D];哈尔滨工业大学;2015年

2 马腾飞;磁锚定腹腔内手术机器人的设计与视觉伺服实验研究[D];哈尔滨工业大学;2015年

3 杨坤;微装配机器人的无标定视觉伺服研究[D];华中科技大学;2015年

4 王杰;基于视觉伺服的机器人控制研究[D];武汉工程大学;2015年

5 蒋云;机械手仿人智能无标定混合双目视觉伺服研究[D];重庆大学;2015年

6 刘浪;机械手五自由度无标定视觉伺服仿人智能控制[D];重庆大学;2015年

7 安旭文;基于单目视觉的目标识别与跟踪系统研究[D];华中科技大学;2014年

8 周德文;基于远心双目微视觉伺服的光纤精密对准控制研究[D];华南理工大学;2016年

9 蔡伟东;机械臂视觉伺服控制方法研究[D];哈尔滨工业大学;2016年

10 李哲;基于视觉伺服的立体边界安防系统设计[D];哈尔滨工业大学;2016年



本文编号:2544450

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/2544450.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户658da***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com