当前位置:主页 > 科技论文 > 软件论文 >

时空上下文抗遮挡视觉跟踪

发布时间:2018-10-16 18:20
【摘要】:目的传统的视觉跟踪方法只考虑了目标本身的特征信息提取,忽略了目标周围稠密的上下文信息。一旦目标本身特征信息提取存在困难,很容易导致跟踪失败。为解决上述问题,提出一种时空上下文抗遮挡视觉跟踪算法(STC-PF)。方法首先,利用目标与局部区域的时空关系学习时空上下文模型;然后,通过上下文先验模型和学习到的时空上下文模型计算置信图;最后,对时空上下文区域进行分块遮挡判别,若遮挡概率小于设定阈值,计算置信图所得最大概率位置即为目标位置;若遮挡概率大于设定阈值,则目标发生遮挡,通过子块匹配和粒子滤波估计目标位置以及运动轨迹,实现不同程度的抗遮挡跟踪。结果对测试数据集中的图像序列进行实验,结果表明,STC-PF方法的跟踪成功率提高至80%以上;中心误差小于原算法;同时STC-PF算法在提高抗遮挡能力的前提下,运行速度与原算法相当,高于当前流行算法。结论 STC-PF算法能够适用于光照变化、目标旋转、遮挡等复杂情况下的视觉目标跟踪,具有一定的实时性和高效性,尤其是在目标发生遮挡情况下具有很好的抗遮挡能力和较快的运行速度。
[Abstract]:Objective the traditional visual tracking method only considers the feature extraction of the target itself and ignores the dense contextual information around the target. Once the feature information extraction of the target itself is difficult, it is easy to lead to the tracking failure. In order to solve the above problems, a spatio-temporal context-resistant visual tracking algorithm (STC-PF) is proposed. Methods first, the spatio-temporal context model is studied by using the spatio-temporal relationship between the target and the local region; then, the confidence diagram is calculated by the contextual priori model and the spatio-temporal context model. If the occlusion probability is less than the set threshold, the maximum probability position of the confidence chart is the target position, and if the occlusion probability is greater than the set threshold, the occlusion occurs. The target position and motion trajectory are estimated by subblock matching and particle filter to achieve different degree of anti-occlusion tracking. Results the experimental results show that the tracking success rate of STC-PF method is more than 80%, the center error is smaller than that of the original algorithm, and the STC-PF algorithm can improve the ability of resisting occlusion. The running speed is similar to the original algorithm, which is higher than the current popular algorithm. Conclusion the STC-PF algorithm can be used to track the visual targets in complex cases, such as illumination change, target rotation, occlusion and so on, and has a certain real-time and high efficiency. Especially in the case of object occlusion, it has good ability of resisting occlusion and fast running speed.
【作者单位】: 辽宁工程技术大学软件学院;
【基金】:国家自然科学基金项目(61172144) 辽宁省教育厅科学技术研究一般项目(L2015216)~~
【分类号】:TP391.41

【相似文献】

相关期刊论文 前10条

1 史卫民;王庆敏;刘秋红;陈勇;姚永杰;;视觉跟踪技术及其应用的研究进展[J];海军医学杂志;2014年01期

2 侯志强;韩崇昭;;视觉跟踪技术综述[J];自动化学报;2006年04期

3 王哲;;视觉跟踪 用眼睛使用的“鼠标”[J];电脑爱好者;2007年07期

4 张进;;视觉跟踪技术发展和难点问题的分析[J];信息技术与信息化;2008年06期

5 李谷全;陈忠泽;;视觉跟踪技术研究现状及其展望[J];计算机应用研究;2010年08期

6 刘铁根,蔡怀宇,张以谟,路登平,胡绳荪,张凤林;一种埋弧焊视觉跟踪系统(英文)[J];光电工程;1999年06期

7 李伟;吴瑰丽;王猛;;视觉跟踪算法的研究进展[J];石家庄铁路职业技术学院学报;2013年03期

8 刘洋;李玉山;张大朴;邱家涛;;基于动态目标建模的粒子滤波视觉跟踪算法[J];光子学报;2008年02期

9 张国亮;谢宗武;蒋再男;王捷;刘宏;;模糊化多视觉信息融合的视觉跟踪策略[J];西安交通大学学报;2009年08期

10 杨戈;刘宏;;视觉跟踪算法综述[J];智能系统学报;2010年02期

相关会议论文 前2条

1 吕玉生;赵杰煜;;具有视觉跟踪的中英文语音动画系统[A];第十四届全国图象图形学学术会议论文集[C];2008年

2 李善青;贾云得;柳阳;;一种用于穿戴计算的指示手势视觉跟踪方法[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年

相关博士学位论文 前9条

1 王法胜;复杂场景下的单目标视觉跟踪算法研究[D];大连海事大学;2014年

2 徐萧萧;基于特征学习与特征联想的视觉跟踪算法研究[D];中国科学技术大学;2010年

3 王其聪;复杂观测条件下的基于粒子滤波的视觉跟踪[D];浙江大学;2007年

4 夏瑜;视觉跟踪新方法及其应用研究[D];江南大学;2013年

5 王芳林;稳健视觉跟踪算法中的关键问题研究[D];上海交通大学;2009年

6 温静;基于张量子空间学习的视觉跟踪方法研究[D];西安电子科技大学;2010年

7 苏洁;光照变化下的视觉跟踪算法研究[D];哈尔滨工程大学;2010年

8 王栋;基于线性表示模型的在线视觉跟踪算法研究[D];大连理工大学;2013年

9 代江华;粒子滤波架构下视觉目标跟踪相关技术研究[D];华中科技大学;2014年

相关硕士学位论文 前10条

1 郭标;焊缝视觉跟踪系统设计[D];西南交通大学;2015年

2 张瑞;基于贝叶斯估计的视觉跟踪算法研究[D];福建师范大学;2015年

3 祝宝龙;基于视觉跟踪技术的眼控鼠标研究[D];哈尔滨工业大学;2015年

4 刘养彪;运动模糊下的视觉跟踪算法研究[D];北京理工大学;2015年

5 向秀娟;基于视觉跟踪的移动机器人定位研究[D];新疆大学;2015年

6 张劲;基于在线隐变量支持向量机的尺度自适应视觉跟踪[D];西安电子科技大学;2014年

7 范曲;复杂场景下运动目标的视觉跟踪方法研究[D];重庆大学;2015年

8 孟凡帅;面向物料输送过程状态监控与故障报警的视觉跟踪技术的研究[D];河北工业大学;2015年

9 张欣;基于粒子滤波的视觉跟踪算法的FPGA实现[D];北京理工大学;2016年

10 黄梁华;基于张量表达的视觉跟踪算法研究[D];北京理工大学;2016年



本文编号:2275234

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/2275234.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户7b058***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com