高分辨率遥感图像中飞机目标自动检测方法研究
发布时间:2020-11-16 09:46
深度学习是当下研究的热点和重点,不同于传统方法需要人工设计特征,深度学习自动地提取图像中的特征,并且提取的特征更具有代表性,也更加鲁棒。自然图像处理已经有很多优秀的网络结构在分类、目标检测以及语义分割上取得了较优的效果。深度学习中一些成熟优秀的方法被逐渐应用于遥感图像处理中,特别是在土地利用分类、变化检测、目标检测等领域,已经有很多针对遥感图像的新方法被提出。但是,遥感图像语义分割领域的研究相比其他领域较少,主要是因为构建遥感图像语义分割数据集的难度大,训练分割网络的耗时长,分割效果难提高等。本文在已有成熟深度学习网络的基础上,针对遥感图像中飞机目标的检测和分割问题提出了一些有用的改进方法。本文在飞机目标检测和分割两个步骤中针对遥感图像中飞机目标的特点提出了一些具体的改进方法。在目标检测中,考虑到飞机目标中存在一些小目标,并且有些小目标之间的间距小,定位难度高,本文在经典目标检测网络Faster Region-based Convolutional Neural Networks(Faster R-CNN)的基础上添加了Feature Pyramid Networks(FPN)结构,使得在检测时结合多尺度信息以提高检测精度。在语义分割中,首先,为了保证在逐像素点分类时能够结合更多的高分辨率信息,本文通过减小网络下采样倍数来减少下采样时造成的信息缺失;其次,在使用大型网络ResNet-101作为基础网络(backbone)时,由于内存的限制而无法将下采样倍数减小到1,所以本文使用反卷积层这种可训练的方式恢复特征图到输入图像大小,使用跳跃连接方式结合高分辨率信息;最后,在使用交叉熵函数作为损失函数时,训练图像中的容易样本所造成的误差会掩盖困难样本所造成的误差,这会导致训练出来的模型对于困难样本的分割效果差,为了解决这个问题,本文使用Focal Loss替代交叉熵损失,为容易样本分配小的权重,为困难样本分配大的权重。另外,本文还自建了飞机目标检测样本集和语义分割样本集,并基于样本集对所提出的改进方法进行了实验对比,实验证明了本文提出的改进方法可以明显提高飞机目标的识别精度。
【学位单位】:电子科技大学
【学位级别】:硕士
【学位年份】:2019
【中图分类】:TP751
【部分图文】:
特征随着网络加深而愈加抽象,而且深层网络也梯度爆炸等问题。而且在实践中,不断增加网络的深度反而会,这是由于非线性网络无法逼近恒等映射网络。为了解决这巧妙的将两个连续卷积层后的输出与第一个卷积层的输入相加作入(如图 2-2 所示),从而让网络学习恒等映射的扰动。这种从动的转换使得基于 ResNet 可以构建的更深,将深度学习的发展。13
图 2-2 ResNet-101 中的残差结构[73]习的目标检测方法NN网络不同,目标检测网络需要得到目标的准决两个主要问题,第一要得到目标出现的可使得到了候选框,其定位也只是大概的区域候选框进行调整。第一个问题用传统的方式择性搜索方法在 CPU 上过滤一遍候选框的 0.2 秒,结合这两种方法已经可以解决第一两种方法都无法解决。的发展和 GPU 的出现,卷积神经网络在很早题上并取得了不错的效果,但是其在对每个的操作。2015 年提出的 Faster R-CNN 用一
图 2-3 Faster-RCNN网络结构[88]如图 2-3 所示,绿色虚线框所示为区域生成网络(RPN),用来告诉 FastN 候选框所在区域,蓝色虚线框所示为 Fast R-CNN 网络,用来分辨区域络提出的候选框中是否有目标,并对候选框进行调整。其中区域生成网络候选框的方法如图 2-4所示:图 2-4 区域生成网络结构[53]
【参考文献】
本文编号:2885981
【学位单位】:电子科技大学
【学位级别】:硕士
【学位年份】:2019
【中图分类】:TP751
【部分图文】:
特征随着网络加深而愈加抽象,而且深层网络也梯度爆炸等问题。而且在实践中,不断增加网络的深度反而会,这是由于非线性网络无法逼近恒等映射网络。为了解决这巧妙的将两个连续卷积层后的输出与第一个卷积层的输入相加作入(如图 2-2 所示),从而让网络学习恒等映射的扰动。这种从动的转换使得基于 ResNet 可以构建的更深,将深度学习的发展。13
图 2-2 ResNet-101 中的残差结构[73]习的目标检测方法NN网络不同,目标检测网络需要得到目标的准决两个主要问题,第一要得到目标出现的可使得到了候选框,其定位也只是大概的区域候选框进行调整。第一个问题用传统的方式择性搜索方法在 CPU 上过滤一遍候选框的 0.2 秒,结合这两种方法已经可以解决第一两种方法都无法解决。的发展和 GPU 的出现,卷积神经网络在很早题上并取得了不错的效果,但是其在对每个的操作。2015 年提出的 Faster R-CNN 用一
图 2-3 Faster-RCNN网络结构[88]如图 2-3 所示,绿色虚线框所示为区域生成网络(RPN),用来告诉 FastN 候选框所在区域,蓝色虚线框所示为 Fast R-CNN 网络,用来分辨区域络提出的候选框中是否有目标,并对候选框进行调整。其中区域生成网络候选框的方法如图 2-4所示:图 2-4 区域生成网络结构[53]
【参考文献】
相关期刊论文 前4条
1 尹辉;谷峰;岳剑飞;张洪顺;;基于视觉显著搜索与AdaBoost算法的遥感目标检测[J];舰船电子对抗;2013年05期
2 徐刚锋;王平;沈振康;;基于骨架特征的机场主跑道识别[J];红外与激光工程;2006年06期
3 王凯峰,秦前清;基于单类SVM的遥感图像目标检测[J];计算机工程与应用;2005年32期
4 高守英,吴泉源,安国强;基于GIS的龙口市泳汶河流域地貌形态定量分析[J];遥感技术与应用;2003年02期
本文编号:2885981
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2885981.html