复杂场景下单目标的视觉跟踪算法研究
发布时间:2020-05-21 08:16
【摘要】:视频跟踪是计算机视觉中的重要研究领域,被广泛应用于视频监控、交通控制、运动分析等任务中,其主要目标是对视频中运动的特定物体进行跟踪。在现实的复杂场景当中,存在着包括物体遮挡、光照变化、姿态改变、尺度缩放、运动模糊等诸多干扰因素,导致准确有效地进行目标跟踪变得较为困难。本文针对视频跟踪中的单目标视觉跟踪问题进行研究分析,并根据目标跟踪中存在的一些问题,致力于设计出强鲁棒性的跟踪算法。针对复杂场景下目标跟踪过程中存在的局部遮挡以及目标跟踪漂移问题,提出了一种将稀疏表示与时空上下文信息相结合的目标跟踪算法。算法建立了一种新的多模板匹配的目标跟踪框架,在多模板匹配的生成式模型跟踪框架中充分利用了初始帧、上一帧以及发生显著变化的历史帧的目标外观信息。算法利用分块的稀疏编码表示处理目标的局部遮挡问题,并且建立了一种新的机制在多模板匹配框架中有机地融合了空间上下文信息。算法有效的处理了目标的局部遮挡问题,并显著改善了目标跟踪的漂移问题,时空上下文和多模板加权匹配机制的应用提高了算法在局部遮挡场景下目标跟踪的准确性。针对传统方法提取的特征鲁棒性较差以及泛化能力不强的问题,提出了一种基于深度特征的生成式目标跟踪算法。算法根据目标跟踪的特点构造了一种更适合于目标跟踪问题的深度卷积神经网络,并利用此网络构造了一个新的基于深度特征的多模板匹配目标跟踪框架。此外,算法建立了一种新的网络和模板的自适应更新机制,算法的多模板匹配部分也采用了新的自适应加权机制。算法的鲁棒性显著增强,在多种复杂场景下的目标跟踪准确性明显提高,同时算法对于长程目标跟踪具有更好地跟踪效果。针对生成式目标跟踪算法的误匹配问题以及判别式跟踪算法中二值化分类标签带来的匹配不优问题,提出了一种基于深度学习的生成式判别式结合的目标跟踪算法。算法构造了一种新的自适应分类决策目标跟踪框架,算法中不仅包含生成式和判别式模块,还在这两个模块中有机地结合了目标的长期跟踪和短期跟踪。算法中根据候选块的分类结果与目标外观变化程度间的潜在关联特点,建立了一个新的多模块自适应加权结合机制。此外,在新的框架中还创建了一个新的回归预测网络模块解决二值化分类标签带来的问题。算法的泛化能力显著提高,并且算法在各种复杂场景中的目标跟踪准确度都有不同程度的提升。
【图文】:
,
本文编号:2673980
【图文】:
,
本文编号:2673980
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2673980.html