基于目标丢失判别机制的视觉跟踪算法及应用研究
发布时间:2021-03-05 13:24
视觉跟踪算法能准确、稳定、快速地判别目标并定位目标位置,对于提高视觉跟踪系统的整体性能十分重要,但在背景杂乱、相似物体干扰、目标被遮挡、目标出镜头等场景下跟踪算法容易丢失目标。本文针对视觉跟踪算法丢失目标后无法找回目标的难题,提出了基于目标丢失判别机制的视觉跟踪算法(YOLORTM),并在移动机器人视觉跟踪系统上验证算法的可行性。本文进行研究如下:(1)为了在复杂场景下,特别是目标被严重遮挡或出镜头时实现准确跟踪,本文设计了基于目标丢失判别机制的视觉跟踪算法(YOLO-RTM)。YOLO-RTM算法首先通过实时检测算法(An incremental improvement of Real-Time Object Detection,YOLOv3)检测视频第一帧中的目标,之后利用实时多域卷积神经网络跟踪算法(Real-time learning multi-domain convolutional neural networks for visual tracking,RT-MDNet)预测目标边框的变化,最后计算检测算法和跟踪算法预测边框的重叠度,根据重叠度与预设阈值的比较结果判断目标...
【文章来源】:湘潭大学湖南省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
常用激活函数图像
湘潭大学硕士学位论文25图3-3YOLOv1、YOLOv2、YOLOv3第一帧检测精度对比图表3-1YOLOv1、YOLOv2、YOLOv3第一帧检测精度对比表算法视频YOLOv1YOLOv2YOLOv3Walker128.84%88.82%99.71%Walker259.39%90.99%99.98%Walker343.65%90.66%99.97%YOLOv1、YOLOv2、YOLOv3算法的检测精度如表3-1所示、精度图对比如图3-3所示,可以看出YOLOv3检测精度相比于YOLOv1和YOLOv2高出较多。YOLOv3模型性能如此优秀,这一方面得益于模型的设计,利用Darknet-53更深的网络、ResNet残差结构更好地提取卷积特征,另外一方面也得益于利用3个不同尺度下3个不同长宽比的先验边框,即共9个先验边框检测,能够检测出不同大小的物体,且检测精度较高。虽然实时检测算法YOLOv3在检测目标时,可以分类目标并定位目标位置,但是检测算法的目地在于找到目标、分类目标,并不能判断视频帧图像与帧图像之间出现的目标是否为同一个目标,对于同一目标的位置如何变化、目标运动情况等并不能给出有效信息。下一节中,实时跟踪算法能对视频帧图像与帧图像之间的同一目标实现定位跟随。
湘潭大学硕士学位论文263.2基于实时多域卷积神经网络的视觉跟踪算法3.2.1视频标注工具箱本章使用vatic视频标注工具箱,制作视频数据集,Github官网地址为如下:https://github.com/cvondrick/vatic.官网上有详细安装与使用过程,其具体安装、使用过程如表3-2、3-3所示为:表3-2vatic安装过程步骤安装过程1安装cython:sudopipinstallcython==0.202下载文件:wgethttp://mit.edu/vondrick/vatic/vatic-install.sh3授予权限:chmod+xvatic-install.sh4运行vatic-install.sh文件:./vatic-install.sh5进入vatic文件目录下:cdvatic6配置HTTPServer7配置SQL数据库8初始化数据库:turkicsetup–database9允许vatic访问turkic:turkicsetup--public-symlink10验证是否安装正确:turkicstatus–verify,如图3-4所示图3-4Vatic工具箱安装成功表3-3Vatic使用过程(其中“/home/xtu”为用户目录)步骤使用过程1建立存储文件夹:mkdir/home/xtu/output2提取视频帧:turkicextract/home/xtu/video.mp4/home/xtu/output/3导入离线视频:turkicloadidentifier/path/to/output/directoryLabel1--offline(Label1为视频标签)4pulish离线视频:turkicpublish--offline5打开pulish后网址:显示如图3-5,可开始标注
【参考文献】:
期刊论文
[1]基于深度学习的飞机目标跟踪应用研究[J]. 赵春梅,陈忠碧,张建林. 光电工程. 2019(09)
[2]一种适用于多弹联合攻击机动目标的协同制导策略[J]. 田源,宿敬亚,孙月光,王俊波. 航空兵器. 2019(04)
[3]基于视觉的移动机器人目标跟踪方法[J]. 余铎,王耀南,毛建旭,郑海华,周显恩. 仪器仪表学报. 2019(01)
[4]旋翼飞行机器人的行人视觉跟踪方法及系统[J]. 王耀南,罗琼华,毛建旭,陈彦杰,周显恩. 电子测量与仪器学报. 2018(11)
[5]视觉目标跟踪方法研究综述[J]. 葛宝义,左宪章,胡永江. 中国图象图形学报. 2018(08)
[6]室内单目机器人视觉目标发现与跟随[J]. 骆颇. 计算机系统应用. 2018(01)
[7]移动机器人实时目标跟踪系统设计与实现[J]. 赵德超,彭力. 传感器与微系统. 2017(12)
[8]深度学习在视频目标跟踪中的应用进展与展望[J]. 管皓,薛向阳,安志勇. 自动化学报. 2016(06)
[9]弹道目标实时跟踪中的滤波方法综述[J]. 刘也,余安喜,朱炬波,唐歌实. 宇航学报. 2013(11)
博士论文
[1]复杂交通视频场景中的车辆轨迹提取及行为分析[D]. 卢胜男.长安大学 2016
[2]基于视觉的微小型无人直升机位姿估计与目标跟踪研究[D]. 徐伟杰.浙江大学 2012
硕士论文
[1]基于图像分割的细胞序列跟踪方法研究[D]. 张哲.吉林大学 2017
本文编号:3065274
【文章来源】:湘潭大学湖南省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
常用激活函数图像
湘潭大学硕士学位论文25图3-3YOLOv1、YOLOv2、YOLOv3第一帧检测精度对比图表3-1YOLOv1、YOLOv2、YOLOv3第一帧检测精度对比表算法视频YOLOv1YOLOv2YOLOv3Walker128.84%88.82%99.71%Walker259.39%90.99%99.98%Walker343.65%90.66%99.97%YOLOv1、YOLOv2、YOLOv3算法的检测精度如表3-1所示、精度图对比如图3-3所示,可以看出YOLOv3检测精度相比于YOLOv1和YOLOv2高出较多。YOLOv3模型性能如此优秀,这一方面得益于模型的设计,利用Darknet-53更深的网络、ResNet残差结构更好地提取卷积特征,另外一方面也得益于利用3个不同尺度下3个不同长宽比的先验边框,即共9个先验边框检测,能够检测出不同大小的物体,且检测精度较高。虽然实时检测算法YOLOv3在检测目标时,可以分类目标并定位目标位置,但是检测算法的目地在于找到目标、分类目标,并不能判断视频帧图像与帧图像之间出现的目标是否为同一个目标,对于同一目标的位置如何变化、目标运动情况等并不能给出有效信息。下一节中,实时跟踪算法能对视频帧图像与帧图像之间的同一目标实现定位跟随。
湘潭大学硕士学位论文263.2基于实时多域卷积神经网络的视觉跟踪算法3.2.1视频标注工具箱本章使用vatic视频标注工具箱,制作视频数据集,Github官网地址为如下:https://github.com/cvondrick/vatic.官网上有详细安装与使用过程,其具体安装、使用过程如表3-2、3-3所示为:表3-2vatic安装过程步骤安装过程1安装cython:sudopipinstallcython==0.202下载文件:wgethttp://mit.edu/vondrick/vatic/vatic-install.sh3授予权限:chmod+xvatic-install.sh4运行vatic-install.sh文件:./vatic-install.sh5进入vatic文件目录下:cdvatic6配置HTTPServer7配置SQL数据库8初始化数据库:turkicsetup–database9允许vatic访问turkic:turkicsetup--public-symlink10验证是否安装正确:turkicstatus–verify,如图3-4所示图3-4Vatic工具箱安装成功表3-3Vatic使用过程(其中“/home/xtu”为用户目录)步骤使用过程1建立存储文件夹:mkdir/home/xtu/output2提取视频帧:turkicextract/home/xtu/video.mp4/home/xtu/output/3导入离线视频:turkicloadidentifier/path/to/output/directoryLabel1--offline(Label1为视频标签)4pulish离线视频:turkicpublish--offline5打开pulish后网址:显示如图3-5,可开始标注
【参考文献】:
期刊论文
[1]基于深度学习的飞机目标跟踪应用研究[J]. 赵春梅,陈忠碧,张建林. 光电工程. 2019(09)
[2]一种适用于多弹联合攻击机动目标的协同制导策略[J]. 田源,宿敬亚,孙月光,王俊波. 航空兵器. 2019(04)
[3]基于视觉的移动机器人目标跟踪方法[J]. 余铎,王耀南,毛建旭,郑海华,周显恩. 仪器仪表学报. 2019(01)
[4]旋翼飞行机器人的行人视觉跟踪方法及系统[J]. 王耀南,罗琼华,毛建旭,陈彦杰,周显恩. 电子测量与仪器学报. 2018(11)
[5]视觉目标跟踪方法研究综述[J]. 葛宝义,左宪章,胡永江. 中国图象图形学报. 2018(08)
[6]室内单目机器人视觉目标发现与跟随[J]. 骆颇. 计算机系统应用. 2018(01)
[7]移动机器人实时目标跟踪系统设计与实现[J]. 赵德超,彭力. 传感器与微系统. 2017(12)
[8]深度学习在视频目标跟踪中的应用进展与展望[J]. 管皓,薛向阳,安志勇. 自动化学报. 2016(06)
[9]弹道目标实时跟踪中的滤波方法综述[J]. 刘也,余安喜,朱炬波,唐歌实. 宇航学报. 2013(11)
博士论文
[1]复杂交通视频场景中的车辆轨迹提取及行为分析[D]. 卢胜男.长安大学 2016
[2]基于视觉的微小型无人直升机位姿估计与目标跟踪研究[D]. 徐伟杰.浙江大学 2012
硕士论文
[1]基于图像分割的细胞序列跟踪方法研究[D]. 张哲.吉林大学 2017
本文编号:3065274
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3065274.html
最近更新
教材专著