优化搜索策略的KCF目标跟踪算法
发布时间:2022-01-17 01:19
针对核相关滤波跟踪算法存在实时性较差的问题,提出了一种优化搜索策略的改进算法。首先,在检测到随机选取的视频某一帧中目标中心位置后,计算该目标图像块的均值和标准差。再设定一个排序队列以及两个自适应阈值来筛除一些特征与目标差异较大的候选块。在视频下一帧中,均值与标准差的差值小于设定阈值的候选块会优先检测并计算响应。实验结果表明,改进后的算法与原算法相比帧率提升可达10%左右,且跟踪精度较KCF、CSK、Struct等其它算法提升2.2%、14.4%和24.9%。
【文章来源】:武汉工程大学学报. 2019,41(01)
【文章页数】:5 页
【部分图文】:
一维向量得到的循环矩阵Fig.1Cyclicmatrixobtainedfromone-dimensionalvectorC
icmatrixobtainedfromone-dimensionalvector对二维图像,可通过循环移动x轴和y轴实现不同位置的移动。因此由一个向量x∈Rn可通过不断地乘上排列矩阵得到n个循环位移向量,如图1所示。再将这n个向量依序排列到一个矩阵中,就形成了X生成的循环矩阵C(X)。在傅氏空间中,任意的C(X)都能使用矩阵F来进行对角化:X=F×diag(xù)×FH(3)其中F是离散傅里叶矩阵。xù=F(x)表示矩阵X的第一行向量经过离散傅里叶变换后的值。循环移位得到的样本如图2所示。+30+15基样本-15-30图2二维图像经过不同行数的移位:(a)下移30行,(b)下移15行,(c)基样本,(d)上移15行,(e)上移30行Fig.2Two-dimensionalimagesshiftingthroughdifferentlines:(a)down30,(b)down15,(c)sample,(d)up15,(e)up301.2滤波器系数及相关响应的求解利用核方法,将线性问题的输入映射到非线性特征空间Φ(x)中。过程分为如下两步:1)将解ω表达为样本的线性组合:ω=iαi×φ(xi)。其中αi为ω的对偶空间向量,即滤波器系数。2)用点积的形式来写入核方法:k(x?x')=φT(x')×φ(x),该方法用核函数k(高斯或多项式)来计算。所有样本对间的点积保存在一个n×n的核矩阵K中,元素值为Kij=k(xi?xj)。但核方法的缺点在于,回归函数的复杂性会随样本数目的增加而增加:f(z)=ωT?φ(z)=i=1nαi?k(z?xi)(4)存在如下定理:给定循环数据C(x),对任意排
跫?碌摩椅?0.2。padding窗经过上述分析取1.5。k在Basketball序列中取13(总共40个),即前32.5%的图像块,在Girl序列中取11(总共24个),即前45.8%的图像块。自适应阈值T1和T2根据上述不同k值计算出的μk、σk自动调整时效果较好。在MATLAB上选用距离精度作为衡量算法性能的指标,目标的中心位置误差(centerpositionerror,CLE)小于某一固定阈值时,符合的帧数与视频总帧数的比值即为算法精度。这里的阈值通常以20个像素返回精度。图4的实验结果集成了改进算法OSKCF(OptimizedSearchingStrategyforKCF,OSKCF)与较早的9种性能较好的跟踪算法,并横向对比了其中CSK、KCF、Struck[14](structuredoutputtrackingwithkernels,Struct)和检测学习跟踪[15](tracking-learning-detection,TLD)4种算法的性能。横坐标为目标误差像素阈值,以10像素为1个单位,纵坐标则表示算法精度。各算法曲线基本呈半梯形(左半部分)状,阈值在30像素后曲线基本不再增长,因此取20像素来计算阈值是合理的。从图4可看出,经过优化候选区域的搜索策略并筛选图像块后,改进算法OSKCF的性能在较早的10个测试算法中最好,优于2012年以前最快的算法Struct以及经典的long-term算法TLD。在测试Basketball序列时,OSKCF平均精度为0.942,平010203040Locationerrorthreshold/pixels0.90.80.70.60.50.40.20.20.10PrecisionOSKCFStructCXTKCFSCMTLDASLACSKVTSOSKCF[0.698]KCF
【参考文献】:
期刊论文
[1]相关滤波目标跟踪进展综述[J]. 张微,康宝生. 中国图象图形学报. 2017(08)
[2]改进的核相关滤波跟踪算法[J]. 孙健,向伟,谭舒昆,刘云鹏. 计算机工程与应用. 2018(09)
[3]基于视觉的目标检测与跟踪综述[J]. 尹宏鹏,陈波,柴毅,刘兆栋. 自动化学报. 2016(10)
[4]采用核相关滤波器的自适应尺度目标跟踪[J]. 张雷,王延杰,孙宏海,姚志军,吴培. 光学精密工程. 2016(02)
[5]全局阈值与局部阈值相结合的视网膜血管分割方法[J]. 单玲玉,闵锋,李延达. 武汉工程大学学报. 2015(03)
本文编号:3593768
【文章来源】:武汉工程大学学报. 2019,41(01)
【文章页数】:5 页
【部分图文】:
一维向量得到的循环矩阵Fig.1Cyclicmatrixobtainedfromone-dimensionalvectorC
icmatrixobtainedfromone-dimensionalvector对二维图像,可通过循环移动x轴和y轴实现不同位置的移动。因此由一个向量x∈Rn可通过不断地乘上排列矩阵得到n个循环位移向量,如图1所示。再将这n个向量依序排列到一个矩阵中,就形成了X生成的循环矩阵C(X)。在傅氏空间中,任意的C(X)都能使用矩阵F来进行对角化:X=F×diag(xù)×FH(3)其中F是离散傅里叶矩阵。xù=F(x)表示矩阵X的第一行向量经过离散傅里叶变换后的值。循环移位得到的样本如图2所示。+30+15基样本-15-30图2二维图像经过不同行数的移位:(a)下移30行,(b)下移15行,(c)基样本,(d)上移15行,(e)上移30行Fig.2Two-dimensionalimagesshiftingthroughdifferentlines:(a)down30,(b)down15,(c)sample,(d)up15,(e)up301.2滤波器系数及相关响应的求解利用核方法,将线性问题的输入映射到非线性特征空间Φ(x)中。过程分为如下两步:1)将解ω表达为样本的线性组合:ω=iαi×φ(xi)。其中αi为ω的对偶空间向量,即滤波器系数。2)用点积的形式来写入核方法:k(x?x')=φT(x')×φ(x),该方法用核函数k(高斯或多项式)来计算。所有样本对间的点积保存在一个n×n的核矩阵K中,元素值为Kij=k(xi?xj)。但核方法的缺点在于,回归函数的复杂性会随样本数目的增加而增加:f(z)=ωT?φ(z)=i=1nαi?k(z?xi)(4)存在如下定理:给定循环数据C(x),对任意排
跫?碌摩椅?0.2。padding窗经过上述分析取1.5。k在Basketball序列中取13(总共40个),即前32.5%的图像块,在Girl序列中取11(总共24个),即前45.8%的图像块。自适应阈值T1和T2根据上述不同k值计算出的μk、σk自动调整时效果较好。在MATLAB上选用距离精度作为衡量算法性能的指标,目标的中心位置误差(centerpositionerror,CLE)小于某一固定阈值时,符合的帧数与视频总帧数的比值即为算法精度。这里的阈值通常以20个像素返回精度。图4的实验结果集成了改进算法OSKCF(OptimizedSearchingStrategyforKCF,OSKCF)与较早的9种性能较好的跟踪算法,并横向对比了其中CSK、KCF、Struck[14](structuredoutputtrackingwithkernels,Struct)和检测学习跟踪[15](tracking-learning-detection,TLD)4种算法的性能。横坐标为目标误差像素阈值,以10像素为1个单位,纵坐标则表示算法精度。各算法曲线基本呈半梯形(左半部分)状,阈值在30像素后曲线基本不再增长,因此取20像素来计算阈值是合理的。从图4可看出,经过优化候选区域的搜索策略并筛选图像块后,改进算法OSKCF的性能在较早的10个测试算法中最好,优于2012年以前最快的算法Struct以及经典的long-term算法TLD。在测试Basketball序列时,OSKCF平均精度为0.942,平010203040Locationerrorthreshold/pixels0.90.80.70.60.50.40.20.20.10PrecisionOSKCFStructCXTKCFSCMTLDASLACSKVTSOSKCF[0.698]KCF
【参考文献】:
期刊论文
[1]相关滤波目标跟踪进展综述[J]. 张微,康宝生. 中国图象图形学报. 2017(08)
[2]改进的核相关滤波跟踪算法[J]. 孙健,向伟,谭舒昆,刘云鹏. 计算机工程与应用. 2018(09)
[3]基于视觉的目标检测与跟踪综述[J]. 尹宏鹏,陈波,柴毅,刘兆栋. 自动化学报. 2016(10)
[4]采用核相关滤波器的自适应尺度目标跟踪[J]. 张雷,王延杰,孙宏海,姚志军,吴培. 光学精密工程. 2016(02)
[5]全局阈值与局部阈值相结合的视网膜血管分割方法[J]. 单玲玉,闵锋,李延达. 武汉工程大学学报. 2015(03)
本文编号:3593768
本文链接:https://www.wllwen.com/kejilunwen/sousuoyinqinglunwen/3593768.html