无人机对地运动目标跟踪技术研究
发布时间:2021-12-31 04:37
无人机对地运动目标跟踪技术是计算机视觉领域的研究热点之一,在安防和国防等领域具有重要的应用前景。目前,基于“先检测后跟踪”的技术策略是实现航拍视频下目标自动跟踪的主流方法。其中,无需大量先验信息仅利用目标运动特性的在线检测器是机载平台实现普适性运动小目标检测的最常用方法。但是,环境噪声及移动平台造成的虚假检测,目标自身运动的变速变向、背景环境的变化及干扰、多目标互相干扰等造成的目标在图像上的非线性形变,以及受到成像角度影响的场景遮挡而造成的目标在图像上消失,均给后续的目标跟踪带来了极大的挑战。针对上述问题,本文对图像序列上运动目标在线外观模型建模以及目标外观/运动规律挖掘这两个科学问题展开研究,实现长时运动目标跟踪,为无人机实时对地观测的目标识别、场景感知、行为理解等高级处理提供基础。本文主要研究内容和创新点如下:1.提出了一种基于动态稀疏投影表示的目标外观模型跟踪方法,通过在线训练目标外观模型,解决了航拍视频目标非线性形变下的目标跟踪问题。传统的基于稀疏投影表示的跟踪方法采用固定的随机投影矩阵,无法有效的区分固定跟踪框中的目标与背景特征,累积误差容易造成目标跟踪偏移问题。本文通过采用...
【文章来源】:西北工业大学陕西省 211工程院校 985工程院校
【文章页数】:150 页
【学位级别】:博士
【部分图文】:
运动目标检测方法在公式数据库[11]中的处理结果展示[11]
征表示方法主要包含:梯度直方图特征(Histograms of Oriented Gradients,HOG)[19]、颜色特征(Color)[20, 21]、局部二值模式特征(Local Binary Patterns,LBP)[22]、协方差特征(Covariance)[23]、稀疏字典表示(Sparse Coding)[24]以及不同特征的融合或者协同表示[25]。近几年来,随着硬件加速平台的快速发展,基于机器自动学习的目标特征表示方法取得了大量的应用[17, 18, 26–29]。机器学习特征突破了手工特征的约束限制,极大的提升了分类器的鲁棒性。该方法在学习及优化阶段带来的巨大计算复杂度限制
#000074 #000696 #000732图 3–28 UAV123数据跟踪结果:视角变化以及目标离开视场视角变化以及目标离开视场:如图3–28所示,在图像序列Bird2中,目标为一只飞鸟。目标的快速移动和摄像机显示参数的影响,只有PLCT和Struck算法在第#1712帧之前保持了有效的目标跟踪。但是在第#1912帧飞鸟离开视场再重新出现时,所有跟踪算法均失效。同样的情况在图像序列Car1 3、Car14和Person1 3均造成了相同的目标跟踪结果。在图像序列Car1 3中,汽车在第#2114帧离开场景后,在第#2222帧重新出现在场景中;在图像序列Car14中,汽车在第#808帧之后消失在场景中
本文编号:3559628
【文章来源】:西北工业大学陕西省 211工程院校 985工程院校
【文章页数】:150 页
【学位级别】:博士
【部分图文】:
运动目标检测方法在公式数据库[11]中的处理结果展示[11]
征表示方法主要包含:梯度直方图特征(Histograms of Oriented Gradients,HOG)[19]、颜色特征(Color)[20, 21]、局部二值模式特征(Local Binary Patterns,LBP)[22]、协方差特征(Covariance)[23]、稀疏字典表示(Sparse Coding)[24]以及不同特征的融合或者协同表示[25]。近几年来,随着硬件加速平台的快速发展,基于机器自动学习的目标特征表示方法取得了大量的应用[17, 18, 26–29]。机器学习特征突破了手工特征的约束限制,极大的提升了分类器的鲁棒性。该方法在学习及优化阶段带来的巨大计算复杂度限制
#000074 #000696 #000732图 3–28 UAV123数据跟踪结果:视角变化以及目标离开视场视角变化以及目标离开视场:如图3–28所示,在图像序列Bird2中,目标为一只飞鸟。目标的快速移动和摄像机显示参数的影响,只有PLCT和Struck算法在第#1712帧之前保持了有效的目标跟踪。但是在第#1912帧飞鸟离开视场再重新出现时,所有跟踪算法均失效。同样的情况在图像序列Car1 3、Car14和Person1 3均造成了相同的目标跟踪结果。在图像序列Car1 3中,汽车在第#2114帧离开场景后,在第#2222帧重新出现在场景中;在图像序列Car14中,汽车在第#808帧之后消失在场景中
本文编号:3559628
本文链接:https://www.wllwen.com/kejilunwen/hangkongsky/3559628.html