面向实时鲁棒目标跟踪的深度粒子相关滤波算法研究
发布时间:2022-01-14 22:18
视觉目标跟踪是计算机视觉领域的核心问题之一,其在实际生活中具有广泛的应用,包括姿势估计、机器人技术、人机交互、无人驾驶等。给定被跟踪目标在视频序列第一帧中的初始边界框,视觉目标跟踪的任务就是如何鲁棒地估计出目标在后续视频帧中的状态。尽管在过去的几年中已经提出了许多有效的跟踪器,但是在具有挑战性的场景中,如平面内旋转、平面外旋转、遮挡、形状变化、快速运动、运动模糊、光照变化、背景杂波、大尺度变化以及实际应用需求等,面向实时鲁棒目标跟踪的算法研究仍是一项艰巨的任务。本文在对现有视觉跟踪领域的粒子滤波框架,相关滤波理论和深度学习技术深入分析的基础上,针对开放环境中各种挑战因素以及实时应用需求,重点从尺度估计、特征描述、采样策略和运行速度四个方面开展面向高性能目标跟踪的深度粒子相关滤波算法研究。本文的主要贡献如下:1)基于决策层融合的加速型粒子滤波实时视觉跟踪算法。相关滤波由于将当前帧预测区域作为训练数据,不正确的预测结果和错误累计将严重干扰相关滤波的训练,从而造成模型漂移。粒子滤波利用丰富的预测候选区域估计目标状态,但是当环境在整个图像序列中很复杂时跟踪效果往往欠佳。针对以上问题,我们提出一...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:122 页
【学位级别】:博士
【部分图文】:
图1-1单目标跟踪算法基本研究框架??视觉目标跟踪技术是许多计算机视觉任务的核心基础,也为上层高级视觉分??
?北京邮电大学工学博士学位论文???3.特征提取:特征提取表示候选区域集合中的每一个候选区域所提取的特??征,所选用的特征能够将目标和背景区域区分出来。计算机视觉中常用的特征表??示包括原始灰度特征、颜色特征、梯度直方图特征以及最近流行的深度卷积特征。??4.观测模型:基于运动模型采样的图像候选区域和在此区域里所提取的目??标特征,观测模型的主要任务是预测区域特征是否包含目标,或输出区域特征中??目标的概率。观测模型和特征提取有着密不可分的关联,有的文献也通常将它们??合并称为表观模型。表观模型是整个目标跟踪技术的核心,设计出优秀的表观模??型能够加强持续跟踪目标的效果。??5.模型更新:目标跟踪技术的处理对象是视频序列,由于目标外观在视频中??是不断变化的,所以观测模型需要自动化地更新来维持自身鲁棒的判别能力,否??则容易导致模型的漂移。有效缓解模型漂移的自适应模型更新机制能够提高跟踪??器的性能。??^?kxAlIM一‘:??(a)光照变化?(b)尺度变化??:■!響1_轉,??(C)出视场外,快速运动?(d)全部遮挡??*?,?"一:?匕‘?.:?j明????■'??---?'?::心??(e)非刚性形变?(f)运动模糊??(g)低分辨率,内外翻转?(h)背景杂波??图1-2目标跟踪技术面临的主要挑战??4??
]?;?Ld??I?CSK.CNN?|?\?^^Tnh?0?l??|?H?Tracker,?Struck?|?\?r^n?a?l??1?MOOSE,?TLD?丨?\?n?.?7??|?Features?Adaptation?|?\?Hn?一?,???I?MeanShfit?1?.、」r-L^?-?〇?1?LiJ??I?Condeasation?|?\? ̄?°?'?LlJ??I?KLT?I?\?f?〇?I?UJ??i?〇?2?;LJ???^?年份,??图1-3代表性目标跟踪技术的发展历程??由于视觉目标跟踪技术涉及的应用领域广泛、研宄价值和意义重大,所以视??觉目标跟踪领域一直是国内外研究院所、高校和公司企业密切关注的重点研究方??向。长期以来相关科研机构在视觉目标跟踪的研宄工作中投入大量的资金和研究??人员,深入探索视觉目标跟踪算法,取得了丰厚的科研成果和长足的进步。目前??在该领域具有领先技术的国外高等院校有卡内基梅隆大学(Carnegie?Mellon??University)、麻省理工学院(Massachusetts?Institute?ofTechno丨ogy)、斯坦福大学??(Stanford?university)、牛津大学(University?of?Oxford)、加州理工学院(California??Institute?ofTechnology)、马里兰大学(University?of?Maryland,?College?Park)以及??科研机构有国际商用机器公司(International?Business?Machines?Corporation)、微??软研究院(M
【参考文献】:
期刊论文
[1]无人驾驶汽车的关键技术及其未来商业化应用[J]. 勾文婷,赵同. 汽车与配件. 2017(02)
[2]武器精确制导目标跟踪测量仿真研究[J]. 艾波,刘凯. 计算机仿真. 2016(12)
[3]基于H.264视频压缩域运动矢量的目标跟踪[J]. 郭楚瑜. 信息通信. 2016(09)
[4]蓄势待发的无人驾驶汽车[J]. 王丽娜. 科技导报. 2016(06)
[5]移动机器人动态环境下目标跟踪异构传感器一致性观测方法[J]. 伍明,李琳琳,魏振华,汪洪桥. 光学学报. 2015(06)
[6]弹道导弹群目标跟踪技术综述[J]. 李昌玺,周焰,郭戈,张晨. 战术导弹技术. 2015(03)
[7]无人驾驶汽车的发展综述[J]. 冯学强,张良旭,刘志宗. 山东工业技术. 2015(05)
[8]多媒体技术研究:2013——面向智能视频监控的视觉感知与处理[J]. 黄铁军,郑锦,李波,傅慧源,马华东,薛向阳,姜育刚,于俊清. 中国图象图形学报. 2014(11)
[9]基于改进在线多示例学习算法的机器人目标跟踪[J]. 王丽佳,贾松敏,李秀智,王爽. 自动化学报. 2014(12)
[10]监控视频智能检索关键技术综述[J]. 张亚恒,韩琳,姜梅,蔡能斌. 影像技术. 2013(06)
博士论文
[1]成像导引头地面目标跟踪技术研究[D]. 申璐榕.国防科学技术大学 2014
[2]交通监控可伸缩视频编码研究[D]. 刘云鹏.浙江大学 2012
本文编号:3589316
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:122 页
【学位级别】:博士
【部分图文】:
图1-1单目标跟踪算法基本研究框架??视觉目标跟踪技术是许多计算机视觉任务的核心基础,也为上层高级视觉分??
?北京邮电大学工学博士学位论文???3.特征提取:特征提取表示候选区域集合中的每一个候选区域所提取的特??征,所选用的特征能够将目标和背景区域区分出来。计算机视觉中常用的特征表??示包括原始灰度特征、颜色特征、梯度直方图特征以及最近流行的深度卷积特征。??4.观测模型:基于运动模型采样的图像候选区域和在此区域里所提取的目??标特征,观测模型的主要任务是预测区域特征是否包含目标,或输出区域特征中??目标的概率。观测模型和特征提取有着密不可分的关联,有的文献也通常将它们??合并称为表观模型。表观模型是整个目标跟踪技术的核心,设计出优秀的表观模??型能够加强持续跟踪目标的效果。??5.模型更新:目标跟踪技术的处理对象是视频序列,由于目标外观在视频中??是不断变化的,所以观测模型需要自动化地更新来维持自身鲁棒的判别能力,否??则容易导致模型的漂移。有效缓解模型漂移的自适应模型更新机制能够提高跟踪??器的性能。??^?kxAlIM一‘:??(a)光照变化?(b)尺度变化??:■!響1_轉,??(C)出视场外,快速运动?(d)全部遮挡??*?,?"一:?匕‘?.:?j明????■'??---?'?::心??(e)非刚性形变?(f)运动模糊??(g)低分辨率,内外翻转?(h)背景杂波??图1-2目标跟踪技术面临的主要挑战??4??
]?;?Ld??I?CSK.CNN?|?\?^^Tnh?0?l??|?H?Tracker,?Struck?|?\?r^n?a?l??1?MOOSE,?TLD?丨?\?n?.?7??|?Features?Adaptation?|?\?Hn?一?,???I?MeanShfit?1?.、」r-L^?-?〇?1?LiJ??I?Condeasation?|?\? ̄?°?'?LlJ??I?KLT?I?\?f?〇?I?UJ??i?〇?2?;LJ???^?年份,??图1-3代表性目标跟踪技术的发展历程??由于视觉目标跟踪技术涉及的应用领域广泛、研宄价值和意义重大,所以视??觉目标跟踪领域一直是国内外研究院所、高校和公司企业密切关注的重点研究方??向。长期以来相关科研机构在视觉目标跟踪的研宄工作中投入大量的资金和研究??人员,深入探索视觉目标跟踪算法,取得了丰厚的科研成果和长足的进步。目前??在该领域具有领先技术的国外高等院校有卡内基梅隆大学(Carnegie?Mellon??University)、麻省理工学院(Massachusetts?Institute?ofTechno丨ogy)、斯坦福大学??(Stanford?university)、牛津大学(University?of?Oxford)、加州理工学院(California??Institute?ofTechnology)、马里兰大学(University?of?Maryland,?College?Park)以及??科研机构有国际商用机器公司(International?Business?Machines?Corporation)、微??软研究院(M
【参考文献】:
期刊论文
[1]无人驾驶汽车的关键技术及其未来商业化应用[J]. 勾文婷,赵同. 汽车与配件. 2017(02)
[2]武器精确制导目标跟踪测量仿真研究[J]. 艾波,刘凯. 计算机仿真. 2016(12)
[3]基于H.264视频压缩域运动矢量的目标跟踪[J]. 郭楚瑜. 信息通信. 2016(09)
[4]蓄势待发的无人驾驶汽车[J]. 王丽娜. 科技导报. 2016(06)
[5]移动机器人动态环境下目标跟踪异构传感器一致性观测方法[J]. 伍明,李琳琳,魏振华,汪洪桥. 光学学报. 2015(06)
[6]弹道导弹群目标跟踪技术综述[J]. 李昌玺,周焰,郭戈,张晨. 战术导弹技术. 2015(03)
[7]无人驾驶汽车的发展综述[J]. 冯学强,张良旭,刘志宗. 山东工业技术. 2015(05)
[8]多媒体技术研究:2013——面向智能视频监控的视觉感知与处理[J]. 黄铁军,郑锦,李波,傅慧源,马华东,薛向阳,姜育刚,于俊清. 中国图象图形学报. 2014(11)
[9]基于改进在线多示例学习算法的机器人目标跟踪[J]. 王丽佳,贾松敏,李秀智,王爽. 自动化学报. 2014(12)
[10]监控视频智能检索关键技术综述[J]. 张亚恒,韩琳,姜梅,蔡能斌. 影像技术. 2013(06)
博士论文
[1]成像导引头地面目标跟踪技术研究[D]. 申璐榕.国防科学技术大学 2014
[2]交通监控可伸缩视频编码研究[D]. 刘云鹏.浙江大学 2012
本文编号:3589316
本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/3589316.html