基于核相关滤波的多目标追踪

发布时间:2021-01-20 11:36
  在计算机视觉领域,多目标追踪一直是研究的热点和难点。多目标追踪中,运算数据量大、算法处理速度要求高,从而使得追踪速度和准确性无法较好权衡,为此提出将单目标追踪时具有快速优势的核相关滤波应用于多目标追踪。以期在考虑追踪速度的同时,能够保证较高的追踪准确性。本文分为以下四个部分:(1)目标检测。由于2D MOT 2015、MOT16数据集目标存在误检和漏检的情况,为此提出使用更快的区域卷积神经目标检测网络(Faster Region-based Convolutional Neural Networks,Faster R-CNN)进行检测,将网络检测得到的结果取代数据集提供的检测结果。(2)目标追踪。为了在多目标追踪中加入目标外观信息,并且综合速度与精度因素,本文采用核相关滤波模型。但是,通过实验发现在进行多目标追踪时,追踪结果并不理想,这是因为核相关滤波算法不支持多尺度。为了克服该问题,本文通过计算检测目标框和预测目标框的交并比方式进行解决,对于符合要求的目标使用检测目标框代替核相关滤波预测框。(3)追踪结果关联。对于第(2)部分的交并比计算,实际是一批检测框与一批预测框的匹配关联,本质... 

【文章来源】:大连海事大学辽宁省 211工程院校

【文章页数】:68 页

【学位级别】:硕士

【部分图文】:

基于核相关滤波的多目标追踪


图1.2多目标追踪基本任务??(a每帧中独立的目标;b全连接方式关联结果;??c经过策略处理后关联结果;(120\10丁20丨5八0

数据集,目标


该目标属于序列第几帧;②目标ID:每??一个目标都有一个唯一?ID?(-1为检测器输出);③目标框左边坐标:目标边框距离左??边界的水平距离;④目标框右边坐标:目标边框距离上边界的垂直距离;⑤目标框宽??度:水平方向目标框像素数;⑥目标框高度:垂直方向目标框像素数;⑦目标检测置??信度:表示检测器对该目标框的预测结果可信度;⑧x:?3D坐标X;⑨y:?3D坐标y;??⑩z:?3D坐标z。??2.1.2?M0T16?数据集??2016年,该网站又发布了新的M0T16数据集,序列样例见图2.3,第一行为训练??集、第二行为测试集。??对M0T16数据集的14个图像序列进行统计,统计内容依然为:相机运动状态、相??机拍摄角度、光照条件、帧率、尺寸大孝帧数、目标框等信息汇总1311,见表2.2,由??表格可以看出:1)训练集和测试集中各有一个序列的帧率低于24?frame/s;?2)图像尺??寸更加统一,主要为1920?X?1080大小;3)目标框的数量和密集程度,有所增加,根据??Ground?truth对部分序列可视化,见图2.4;?4)数据集中有一半序列相机保持静止、还??有一半序列相机在运动;5)数据采集包括室内、室外、晴天、阴天、多云等情况。??图2.3?MOT16数据集展示??Fig.?2.3?Data?set?display?of?MOT?16??图2.4?MOT16部分训练集序列Ground?Truth可视化??Fig.?2.4?MOT?16?part?training?set?sequence?ground?truth?visualization??-12?-??

模型图,预测过程,目标,模型


灰度特征、彩色特征、关键点特征、纹理特征、直方图特征、方向梯度直方图特征等。??对于分类器可以使用:逻辑回归、随机森林、决策树、贝叶斯、K均值、支持向量机等。??不同组合方式对分类结果都会产生各种问题,所以对于目标检测模型而言,大家比较公??认的组合是:方向梯度直方图特征与支持向量机组合的模型|91。??图2.6(a)是该模型的训练过程对于训练过程需要将行人类别和非行人类别分别提取??对应的HOG特征,然后利用SVM将众多样本进行分类,学习最佳分类参数,该参数??即为分类模型。图2.6(b)是模型检测过程,对于检测过程需要对每个序列的每一副图像??进行HOG特征提取,由于相机拍摄角度的原因会存在人物尺度缩放问题,为此将单幅??图像进行尺度变换,得到高斯金字塔模型,然后利用训练好的分类器进行检测,最后将??检测到的行人进行位置标注。??

【参考文献】:
硕士论文
[1]基于核相关滤波器的目标追踪算法研究[D]. 刘忠耿.南京理工大学 2018
[2]基于深度学习的监控视频多目标追踪研究[D]. 李叶.华中科技大学 2017



本文编号:2988971

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/2988971.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户68f61***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com