基于DeepBoost自适应多模型视觉目标跟踪方法研究

发布时间:2018-07-05 07:44

  本文选题:视觉目标跟踪 + 目标外观模型 ; 参考:《华中科技大学》2016年博士论文


【摘要】:视觉目标跟踪(Visual object tracking, VOT)技术是计算机视觉的一个基础和关键的研究方向,近年来一直是学术界和产业界关注的热点之一。尽管近年来国内外研究者在目标跟踪上取得显著的进步,但是如光照变化、形变、遮挡等复杂目标外观变化的干扰以及跟踪器难以从跟踪失败中恢复的难题,使得现有跟踪算法很难实现目标长时持续跟踪。此外,目标发现阶段运动阴影检测算法的效率也会影响视频监控应用中跟踪器初始化的精度,引发跟踪失败。本文针对这些问题开展了以下研究:首先,为提升跟踪算法应对目标复杂剧烈外观变化的能力,本文研究了一种准确、鲁棒的基于DeepBoost集成学习方法的跟踪算法(DeepBoost-Tracker, DBT) .该跟踪算法采用了一种灵活、限制复杂度的目标外观模型,可实现高效处理目标复杂剧烈外观变化。该算法提出了一种联合局部全局特征的视觉表达方法以结合局部和全局视觉表达的优势。该视觉表达方法使用稀疏随机投影技术将目标主要的局部和全局空间结构信息灵活地嵌入具有多复杂度分类器成员的候选分类器集中。此外,为了避免在线学习模型过拟合,本文跟踪算法采用了一种高效的在线DeepBoost学习方法,利用其限制复杂度的特性来产生一个不易过拟合的自适应鲁棒跟踪器。实验表明,该算法的表现明显优于一般的Boosting集成跟踪算法,并取得了高精确度的跟踪结果。其次,为了在保持Boosting类型跟踪器较强自适应能力的同时增强跟踪器从跟踪失败中恢复和重启的能力,本文研究了一种歧义性正则化的多时段自适应跟踪框架,该算法框架使得跟踪系统可以从跟踪失败中恢复和重启。为了描述在跟踪过程中目标的主要外观变化,本文算法将DBT作为基础跟踪器,并使用当前学习得到的跟踪器以及从过往多时段视频帧中学习得到的跟踪器联合创建了一个跟踪器集。本文还研究了包含歧义性正则化项的选择准则损失函数,实现在每一轮跟踪中选择出具有高似然度和低歧义性的跟踪模型来确定当前帧的目标状态。当目标跟踪失败后,跟踪系统会在目标重新出现时放弃被污染的当前跟踪模型,而选择低歧义性的过往目标模型恢复和重启跟踪系统。本文研究使用高效和低计算负担的平均几何分类间隔在跟踪器自标记的数据上度量跟踪器的歧义性。实验表明,本文研究的方法可以成功地从跟踪失败中恢复和重启,并且可以处理目标剧烈复杂的外观变化,在公用测试数据集的整体和各个属性测试上都取得了排名前列跟踪结果。最后,为了提升视频监控应用中目标发现和跟踪初始化的精确度,本文还研究了具有较强通用性的基于在线子场景阴影建模和目标内边缘分析的自适应、精确运动阴影检测方法。本文分别为具有不同辐射和反射条件的子场景建立了各自的自适应在线阴影模型,以实现更加精确地描述阴影外观。为了建立子场景的在线阴影模型,本文首先计算了每个子场景运动前景区域与其被遮挡背景的在HSI色彩空间中色度、饱和度和灰度特征差累积直方图,并通过使用高斯模型来拟合这些累积直方图的最显著波峰来学习每个子区域阴影的似然模型。再者,本文研究使用目标的内边缘分析去除前景中的疑似阴影区域。最后,本文还研究使用基于局部颜色一致属性的区域生长方法来回收那些被误判为前景像素的阴影像素。实验表明,本文方法在没有光照和应用场景的先验知识的前提下,能够自适应地应对阴影外观变化和处理疑似阴影区域,其在实验测试中的表现优于其他比较的方法。
[Abstract]:Visual object tracking is one of the basic and key research directions of computer vision , which has been one of the hot topics in the academic circle and industry in recent years . In order to avoid over - fitting on - line learning model , this paper studies a kind of efficient online depth - Boost learning method .
【学位授予单位】:华中科技大学
【学位级别】:博士
【学位授予年份】:2016
【分类号】:TP391.41


本文编号:2099501

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/2099501.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户55c3f***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com