基于深度学习的高光谱图像目标检测
发布时间:2021-07-10 01:37
近年来,深度学习通过提取深层特征极大地提升了网络的认知能力,在高光谱图像的特征提取和分类领域中得到了成功的应用。然而,在高光谱图像目标检测领域中,先验目标光谱信息非常稀少,会导致网络无法训练,严重阻碍了深度模型的构建。本文针对该问题,从迁移学习和生成样本两个角度,分析目标光谱特性,设计了两种深度学习目标检测框架,解决了训练样本稀少的问题,论文的主要工作如下:第一,从迁移学习的角度,结合像素配对的思想,利用一个标注好的数据集,生成像素对,根据已有的标签信息,为每个像素对分配新的标签,构建像素对数据集并训练网络,使网络学习像素之间的光谱相似特性。测试时,首先通过线性预测算法在测试图像上寻找与目标光谱差异最大的样本作为背景像素,然后对于一个测试像素而言,分别与目标和背景样本分别配对,送入网络,最后将两组结果进行自适应的融合,得到最终的相似性评分。该方法有效地解决了样本稀缺的问题,并加入了深度像素对相似性特征,增强了网络的检测能力,但该方法需要训练与测试数据的传感器相同,因此限制了使用范围。第二,从生成样本的角度,对基于迁移学习的方法进行改进,利用自编码器输出逼近输入的特性,构建目标样本生成器...
【文章来源】:北京化工大学北京市 211工程院校 教育部直属院校
【文章页数】:78 页
【学位级别】:硕士
【部分图文】:
图2-1多层感知器??Fig.2-1?Multilayer?perceptron??目前深度学习最流行的两大流派是卷积神经网络和循环神经网络,它们都是??
?北京化工大学硕士学位论文???12?;2?上一乂?6?L-^y—广T??一:P?22?上:4?6?二一^??图2-2卷积原理??Fig.2-2?Convolution?principle??得到卷积层提取的特征之后,需要将其用来分类,理论上,应该将所有的特??征矩阵送入全连接层进行分类。然而,这样的做法会导致计算开销过大而严重地??降低了效率,甚至程序无法运行。假设,使用300个7X7的卷积核在一张100?x??100的图像进行卷积,那么输出的特征大小为(100?-?7?+?1)?X?(100?-?7?+?1)?x??300?=?2650800。对于一个分类器而言,学习如此大的特征效率是非常低的,并??且会使网络容易过拟合。为解决这个问题,需要一个策略可以对得到的特征进行??降维,保留其中有代表性的信息,去掉其他的冗余信息。池化层正是用来解决这??一问题的,它的本质是一种下采样算法。规则通常很简单,比如选取一个区域内??的最大值或平均值。如果只对图像上连续的区域进行池化,并且待池化特征来自??相同的节点,那么这些池化节点就具有转换不变性。也就是说,即使图像被降采??样变小了,但是特征图上与原图像相对位置相同的节点依然保持着原有的特征,??即特性没有发生改变。??CNN的最优化方法的核心依然是反向传播算法,但是传统的反向传播算法??需要为所有的训练集样本计算损失函数和导数,这无疑会导致训练速度非常缓慢。??针对这一问题,随机梯度下降算法[43](Stochastic?Gradient?Descent,?SGD)被提出,??它可以在获取少量甚至一个样本信息的情况下,将梯度回传,从而加快网络收敛??速度。对于目
标检测理论基础???这里代表训练样集中的一对样本,该公式表明SGD只用少量样本的参??数来计算梯度。这样的原因是既可以减少参数更新时的变化,使网络可以稳定的??收敛,还可以使网络的计算充分利用一些对损失函数和梯度向量化计算有益的最??优化矩阵操作。??在早期的CNN中常使用sigmoid作为每一个节点的激活函数,但是这常常??会导致梯度消失现象,即从输出端回传的导数越来越小,以至于到比较靠前的层??时梯度几乎为0了,这样会使网络的训练速度越来越慢,无法达到预期的结果。??如图2-3所示为sigmoid的导数图像,可以看到其最大值为0.25,对于前面层的??导数而言,是需要由后面层的导数相乘得到的,因此会不断的乘以小于1的数,??这样也就导致了越靠前导数越小的现象。Relu[44]?(Rectified?Linear?Units)函数有??效解决了这一问题,它的函数公式如下:??Relu(x)?=?max(x,?°)?=?>?〇?式(2-3)??从公式可以看出Relu在大于0的情况下,输入等于输出,这样计算导数就简单??很多了,并且始终为1,不会像sigmoid—样减少前面层的导数。??—八??0??图2-3?sigmoid导数图像??Fig.2-3?Derivative?of?sigmoid??Relu的出现使CNN的训练效率有所提升,但此时的收敛速度依然是比较慢??的。批归一化[45]?(Batch?Normalization,?BN)的出现使网络的收敛速度得到了第??二次提升。BN主要是用来解决内部变量偏移问题的,该问题是指在训练过程中,??隐藏层的输入分布会一直改变,导致网络的模型很难稳定学习规
【参考文献】:
期刊论文
[1]高光谱图像目标检测研究进展[J]. 贺霖,潘泉,邸韡,李远清. 电子学报. 2009(09)
本文编号:3274918
【文章来源】:北京化工大学北京市 211工程院校 教育部直属院校
【文章页数】:78 页
【学位级别】:硕士
【部分图文】:
图2-1多层感知器??Fig.2-1?Multilayer?perceptron??目前深度学习最流行的两大流派是卷积神经网络和循环神经网络,它们都是??
?北京化工大学硕士学位论文???12?;2?上一乂?6?L-^y—广T??一:P?22?上:4?6?二一^??图2-2卷积原理??Fig.2-2?Convolution?principle??得到卷积层提取的特征之后,需要将其用来分类,理论上,应该将所有的特??征矩阵送入全连接层进行分类。然而,这样的做法会导致计算开销过大而严重地??降低了效率,甚至程序无法运行。假设,使用300个7X7的卷积核在一张100?x??100的图像进行卷积,那么输出的特征大小为(100?-?7?+?1)?X?(100?-?7?+?1)?x??300?=?2650800。对于一个分类器而言,学习如此大的特征效率是非常低的,并??且会使网络容易过拟合。为解决这个问题,需要一个策略可以对得到的特征进行??降维,保留其中有代表性的信息,去掉其他的冗余信息。池化层正是用来解决这??一问题的,它的本质是一种下采样算法。规则通常很简单,比如选取一个区域内??的最大值或平均值。如果只对图像上连续的区域进行池化,并且待池化特征来自??相同的节点,那么这些池化节点就具有转换不变性。也就是说,即使图像被降采??样变小了,但是特征图上与原图像相对位置相同的节点依然保持着原有的特征,??即特性没有发生改变。??CNN的最优化方法的核心依然是反向传播算法,但是传统的反向传播算法??需要为所有的训练集样本计算损失函数和导数,这无疑会导致训练速度非常缓慢。??针对这一问题,随机梯度下降算法[43](Stochastic?Gradient?Descent,?SGD)被提出,??它可以在获取少量甚至一个样本信息的情况下,将梯度回传,从而加快网络收敛??速度。对于目
标检测理论基础???这里代表训练样集中的一对样本,该公式表明SGD只用少量样本的参??数来计算梯度。这样的原因是既可以减少参数更新时的变化,使网络可以稳定的??收敛,还可以使网络的计算充分利用一些对损失函数和梯度向量化计算有益的最??优化矩阵操作。??在早期的CNN中常使用sigmoid作为每一个节点的激活函数,但是这常常??会导致梯度消失现象,即从输出端回传的导数越来越小,以至于到比较靠前的层??时梯度几乎为0了,这样会使网络的训练速度越来越慢,无法达到预期的结果。??如图2-3所示为sigmoid的导数图像,可以看到其最大值为0.25,对于前面层的??导数而言,是需要由后面层的导数相乘得到的,因此会不断的乘以小于1的数,??这样也就导致了越靠前导数越小的现象。Relu[44]?(Rectified?Linear?Units)函数有??效解决了这一问题,它的函数公式如下:??Relu(x)?=?max(x,?°)?=?>?〇?式(2-3)??从公式可以看出Relu在大于0的情况下,输入等于输出,这样计算导数就简单??很多了,并且始终为1,不会像sigmoid—样减少前面层的导数。??—八??0??图2-3?sigmoid导数图像??Fig.2-3?Derivative?of?sigmoid??Relu的出现使CNN的训练效率有所提升,但此时的收敛速度依然是比较慢??的。批归一化[45]?(Batch?Normalization,?BN)的出现使网络的收敛速度得到了第??二次提升。BN主要是用来解决内部变量偏移问题的,该问题是指在训练过程中,??隐藏层的输入分布会一直改变,导致网络的模型很难稳定学习规
【参考文献】:
期刊论文
[1]高光谱图像目标检测研究进展[J]. 贺霖,潘泉,邸韡,李远清. 电子学报. 2009(09)
本文编号:3274918
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3274918.html
最近更新
教材专著