基于卡尔曼滤波和孪生网络的目标跟踪算法研究
发布时间:2021-09-17 05:31
目标跟踪是计算机视觉的一个重要研究分支,然而在实际应用的复杂环境下,存在着诸如遮挡、光照变化、背景干扰等情况。为了解决上述问题,本文对目标跟踪中目标方位预测算法和孪生网络目标跟踪算法进行了研究和探索,并进行了改进和融合。本文主要研究工作和创新点如下:为了充分挖掘目标的运动信息并应用于目标跟踪算法中,本文提出了一种基于多渐消因子容积卡尔曼滤波的目标方位预测算法。首先针对目标运动随机的问题,本文利用“当前”统计模型对目标的运动状态建立非线性运动状态方程。其次为提高算法对目标运动状态突变的应对能力,本文通过在容积卡尔曼滤波中引入多渐消因子来对目标运动状态方程进行估计和更新。仿真结果证明,该方法可以有效地刻画目标的运动状态,为后续跟踪算法打下良好基础。针对孪生网络目标跟踪算法在背景干扰和遮挡时容易跟踪失败的问题,本文提出了一种基于目标方位预测的LP-SiamRPN目标跟踪算法。该方法在孪生候选区域生成网络的基础上引入目标方位预测算法对目标运动状态进行预测。算法首先根据目标运动信息建立采样区域,提高了搜索的精度和速度。其次,算法对偏离预测方位的高得分锚点框进行抑制,可以有效地消除相似目标的干扰。...
【文章来源】:武汉科技大学湖北省
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
目标跟踪框架
武汉科技大学硕士学位论文92.2孪生候选区域生成网络相关理论基础2.2.1孪生神经网络孪生网络最开始的时候被用于衡量两个输入样本之间的相似程度,它的两个子网络在结构上完全相同并共享网络权重。另外,若两个子网络不共享权重甚至为不同架构的两个网络,互相分开,例如一个是长短期记忆循环神经网络,另一个是卷积神经网络,则这样的网络结构称为伪孪生神经网络(Pseudo-SiameseNetwork)[45]。本文中的孪生网络使用的是结构上一致并共享权重的孪生网络。孪生网络的核心思想是把两个输入经过映射函数映射到特征空间内,然后在特征空间通过某种距离度量方法来比较两个输入的相似程度。如图2.3所示为孪生网络结构图,设两个输入分别为1X和2X,映射函数为卷积神经网络,用()WX表示,W表示网络的权重。通过映射函数后,两个输入分别表示为1()WX和2()WX。最后经过距离函数得到1()WX和2()WX在特征空间内的距离(相似程度)WE。图2.3孪生网络结构图训练孪生网络时的输入为12(X,X,Y),其中1X,2X分别表示两个子网络的输入,Y表示有监督训练的标签。训练孪生网络常用的对比损失(ContrastiveLoss)函数如式(2-3)所示,该损失函数的目的是增大类间差异和减少类内差异。122()()WWd=XX(2-1)
武汉科技大学硕士学位论文102211(1)max(,0)2NiLYdYmargindN==+(2-2)式(2-1)中d表示两个样本之间的欧氏距离,margin表示设定的阈值。当输入1X,2X表示同一类别时,标签Y=1,此时式变为2d;当输入1X,2X为不同类别时,标签Y=0,此时式变为max(margind,0)2。2.2.2候选区域生成网络传统的用于区域生成的方法大多都是耗时的,例如基于手工特征和贪婪算法的selectivesearch处理一张图片需要2秒钟,严重限制了算法的实时性,并且其生成的区域对后续跟踪来说不够精确。为解决上述方法存在的时间复杂度高、检测效率慢、定位不准确、信息不能共享问题,Ren等人在文献[30]中提出用于生成较精确目标候选框的RPN,网络的主要原理是枚举不同尺度、不同比例的框和共享卷积。RPN由前景-背景分类器和边界框回归网络组成,如图2.4所示。RPN在特征图上运用滑动窗口法,在每个位置上同时对k个锚点框(anchorbox)进行计算,计算前后景分数和坐标。将特征图上33大小的特征输入到一个小型神经网络中输出更低维的256维特征,然后对该特征做非线性处理,再将结果分别输入到回归层和分类层这两个全连接层中,其中回归层负责回归锚框的4k个坐标(x,y,w,h),分类层负责预测锚框中2k个前后景分数。图2.4RPN结构图
【参考文献】:
期刊论文
[1]基于孪生网络结构的目标跟踪算法综述[J]. 陈云芳,吴懿,张伟. 计算机工程与应用. 2020(06)
[2]视频目标跟踪技术综述[J]. 李均利,尹宽,储诚曦,汪鸿年. 燕山大学学报. 2019(03)
[3]目标跟踪算法综述[J]. 卢湖川,李佩霞,王栋. 模式识别与人工智能. 2018(01)
[4]武器精确制导目标跟踪测量仿真研究[J]. 艾波,刘凯. 计算机仿真. 2016(12)
[5]一种基于SIFT特征光流的运动目标跟踪算法[J]. 李艳萍,林建辉,杨宁学. 计算机科学. 2015(11)
[6]目标跟踪技术综述[J]. 高文,朱明,贺柏根,吴笑天. 中国光学. 2014(03)
[7]深度学习及其在目标和行为识别中的新进展[J]. 郑胤,陈权崎,章毓晋. 中国图象图形学报. 2014(02)
[8]非线性系统带次优渐消因子的扩展卡尔曼滤波[J]. 周东华,席裕庚,张钟俊. 控制与决策. 1990(05)
硕士论文
[1]基于YOLOv3和多目标跟踪的智能交通视频监控系统[D]. 曾星宇.桂林电子科技大学 2019
[2]智能监控中运动目标检测与跟踪算法研究[D]. 杜新辉.北京交通大学 2019
[3]面向知识图谱的表示学习研究[D]. 栗永芳.桂林电子科技大学 2018
[4]人机交互系统中的目标跟踪算法研究[D]. 陈凯.长安大学 2015
本文编号:3398065
【文章来源】:武汉科技大学湖北省
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
目标跟踪框架
武汉科技大学硕士学位论文92.2孪生候选区域生成网络相关理论基础2.2.1孪生神经网络孪生网络最开始的时候被用于衡量两个输入样本之间的相似程度,它的两个子网络在结构上完全相同并共享网络权重。另外,若两个子网络不共享权重甚至为不同架构的两个网络,互相分开,例如一个是长短期记忆循环神经网络,另一个是卷积神经网络,则这样的网络结构称为伪孪生神经网络(Pseudo-SiameseNetwork)[45]。本文中的孪生网络使用的是结构上一致并共享权重的孪生网络。孪生网络的核心思想是把两个输入经过映射函数映射到特征空间内,然后在特征空间通过某种距离度量方法来比较两个输入的相似程度。如图2.3所示为孪生网络结构图,设两个输入分别为1X和2X,映射函数为卷积神经网络,用()WX表示,W表示网络的权重。通过映射函数后,两个输入分别表示为1()WX和2()WX。最后经过距离函数得到1()WX和2()WX在特征空间内的距离(相似程度)WE。图2.3孪生网络结构图训练孪生网络时的输入为12(X,X,Y),其中1X,2X分别表示两个子网络的输入,Y表示有监督训练的标签。训练孪生网络常用的对比损失(ContrastiveLoss)函数如式(2-3)所示,该损失函数的目的是增大类间差异和减少类内差异。122()()WWd=XX(2-1)
武汉科技大学硕士学位论文102211(1)max(,0)2NiLYdYmargindN==+(2-2)式(2-1)中d表示两个样本之间的欧氏距离,margin表示设定的阈值。当输入1X,2X表示同一类别时,标签Y=1,此时式变为2d;当输入1X,2X为不同类别时,标签Y=0,此时式变为max(margind,0)2。2.2.2候选区域生成网络传统的用于区域生成的方法大多都是耗时的,例如基于手工特征和贪婪算法的selectivesearch处理一张图片需要2秒钟,严重限制了算法的实时性,并且其生成的区域对后续跟踪来说不够精确。为解决上述方法存在的时间复杂度高、检测效率慢、定位不准确、信息不能共享问题,Ren等人在文献[30]中提出用于生成较精确目标候选框的RPN,网络的主要原理是枚举不同尺度、不同比例的框和共享卷积。RPN由前景-背景分类器和边界框回归网络组成,如图2.4所示。RPN在特征图上运用滑动窗口法,在每个位置上同时对k个锚点框(anchorbox)进行计算,计算前后景分数和坐标。将特征图上33大小的特征输入到一个小型神经网络中输出更低维的256维特征,然后对该特征做非线性处理,再将结果分别输入到回归层和分类层这两个全连接层中,其中回归层负责回归锚框的4k个坐标(x,y,w,h),分类层负责预测锚框中2k个前后景分数。图2.4RPN结构图
【参考文献】:
期刊论文
[1]基于孪生网络结构的目标跟踪算法综述[J]. 陈云芳,吴懿,张伟. 计算机工程与应用. 2020(06)
[2]视频目标跟踪技术综述[J]. 李均利,尹宽,储诚曦,汪鸿年. 燕山大学学报. 2019(03)
[3]目标跟踪算法综述[J]. 卢湖川,李佩霞,王栋. 模式识别与人工智能. 2018(01)
[4]武器精确制导目标跟踪测量仿真研究[J]. 艾波,刘凯. 计算机仿真. 2016(12)
[5]一种基于SIFT特征光流的运动目标跟踪算法[J]. 李艳萍,林建辉,杨宁学. 计算机科学. 2015(11)
[6]目标跟踪技术综述[J]. 高文,朱明,贺柏根,吴笑天. 中国光学. 2014(03)
[7]深度学习及其在目标和行为识别中的新进展[J]. 郑胤,陈权崎,章毓晋. 中国图象图形学报. 2014(02)
[8]非线性系统带次优渐消因子的扩展卡尔曼滤波[J]. 周东华,席裕庚,张钟俊. 控制与决策. 1990(05)
硕士论文
[1]基于YOLOv3和多目标跟踪的智能交通视频监控系统[D]. 曾星宇.桂林电子科技大学 2019
[2]智能监控中运动目标检测与跟踪算法研究[D]. 杜新辉.北京交通大学 2019
[3]面向知识图谱的表示学习研究[D]. 栗永芳.桂林电子科技大学 2018
[4]人机交互系统中的目标跟踪算法研究[D]. 陈凯.长安大学 2015
本文编号:3398065
本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/3398065.html