卷积网络模型及其在遥感图像目标识别中的应用
发布时间:2020-10-22 00:30
遥感图像目标自动识别技术在以往的研究中受限于算法的精度,需要大量且繁琐的预处理,导致无法普及。直到卷积网络的出现,几乎不再需要预处理,而且很大程度地提高了识别精度,使自动识别技术被成功应用于多个地区的遥感图像目标识别中。但是依然难以达到人类的识别精度,这主要是因为模型的架构仍未成熟。文章首先介绍了简单的卷积网络,并搭建一个初始的网络模型,再结合前沿研究成果,从网络参数的初始化、卷积层的改进、添加新的模型结构等方面逐步优化卷积网络模型。对于模型的难训练问题,根据实验结果分析了多种模型训练的优化算法,分析利弊后,拟定了小批量梯度下降法和一阶动量方法以及学习率下降相结合的模型训练算法,并使用dropout正则化算法解决了深层网络中的过拟合问题。文章将优化后的卷积网络模型应用于SAT-6多光谱遥感图像的目标识别中,通过分析训练数据以及模型训练中训练集与验证集的精度变化,再次优化模型,在增加卷积网络深度的同时,减少总参数量和计算量,并保证模型不出现过拟合或欠拟合,最终最优的卷积网络模型在测试集中达到了99.5%的精度,基本与人类识别图像精度持平。
【学位单位】:成都理工大学
【学位级别】:硕士
【学位年份】:2018
【中图分类】:TP751
【部分图文】:
改变是极具价值的,最直观的好处就是算法性能的提升。对于网络增加了网络的深度和宽度。对于算法的实现而言,卷积层的并行度计算量小。这些都将在本章详细说明。的小节安排为:首先简单的介绍前馈神经网络,再详细指出卷积网神经网络中的改变,以及这种改变所带来的利与弊,接着简单说明的训练方法----误差反向传播,以及该算法在卷积网络中应用的局限下一章节,如何克服卷积网络的弊端,如何克服算法训练中的难点馈神经网络神经网络(feedforward neural network)是人工神经网络中的一种,在一层的神经元以上一层所有神经元的输出作为输入,并将本层的输的输入,整个网络传输中没有反馈,从输入层开始,将数据向前传隐藏层中数据依层向前传播,最终传入输出层,输出层再输出结果示。
并传输到下一层,这个响应被称为神经元的激活函数,如图2-2 所示。图 2-2 单个神经元图 2-2 中为单个神经元,有三个输入以及一个输出。单个神经元的输入个数是未知的,由上一层决定,但输出仅有一个。神经元对于不同输入的敏感度一般是不同的,也可以理解为是每个输入会对神经元有一定的刺激,且刺激程度基本不同。设有 n 个输入,所有输入对神经元的刺激之和为 z,则:zwxwxwxwxwxTinini= +++= ==11122n (2-1)w 为输入对神经元的刺激程度,也被称为权重、权值或参数,可以用来反映输入值的重要程度。每一个输入都有一个 w,但还有一个额外的 w 是针对一个未知的输入 x0,一般令 x0为 1,这个 w 也被称为偏置
图 2-3 神经元模型有一个重要的部分就是激活函数的选取。必须满足的条件:可微,这是为了保证模型训练是个凸优化问题。神经元是线性的刺激,但线性模型的表达能是非线性的,比如分类,基本都是线性不可分这也是激活函数最大的意义,也就是为了解(XOR problem)就是非线性的。如果没有激是一个简单的基于输入层的线性组合。对于reshold function),如图 2-4 所示,一层隐藏层
【参考文献】
本文编号:2850819
【学位单位】:成都理工大学
【学位级别】:硕士
【学位年份】:2018
【中图分类】:TP751
【部分图文】:
改变是极具价值的,最直观的好处就是算法性能的提升。对于网络增加了网络的深度和宽度。对于算法的实现而言,卷积层的并行度计算量小。这些都将在本章详细说明。的小节安排为:首先简单的介绍前馈神经网络,再详细指出卷积网神经网络中的改变,以及这种改变所带来的利与弊,接着简单说明的训练方法----误差反向传播,以及该算法在卷积网络中应用的局限下一章节,如何克服卷积网络的弊端,如何克服算法训练中的难点馈神经网络神经网络(feedforward neural network)是人工神经网络中的一种,在一层的神经元以上一层所有神经元的输出作为输入,并将本层的输的输入,整个网络传输中没有反馈,从输入层开始,将数据向前传隐藏层中数据依层向前传播,最终传入输出层,输出层再输出结果示。
并传输到下一层,这个响应被称为神经元的激活函数,如图2-2 所示。图 2-2 单个神经元图 2-2 中为单个神经元,有三个输入以及一个输出。单个神经元的输入个数是未知的,由上一层决定,但输出仅有一个。神经元对于不同输入的敏感度一般是不同的,也可以理解为是每个输入会对神经元有一定的刺激,且刺激程度基本不同。设有 n 个输入,所有输入对神经元的刺激之和为 z,则:zwxwxwxwxwxTinini= +++= ==11122n (2-1)w 为输入对神经元的刺激程度,也被称为权重、权值或参数,可以用来反映输入值的重要程度。每一个输入都有一个 w,但还有一个额外的 w 是针对一个未知的输入 x0,一般令 x0为 1,这个 w 也被称为偏置
图 2-3 神经元模型有一个重要的部分就是激活函数的选取。必须满足的条件:可微,这是为了保证模型训练是个凸优化问题。神经元是线性的刺激,但线性模型的表达能是非线性的,比如分类,基本都是线性不可分这也是激活函数最大的意义,也就是为了解(XOR problem)就是非线性的。如果没有激是一个简单的基于输入层的线性组合。对于reshold function),如图 2-4 所示,一层隐藏层
【参考文献】
相关期刊论文 前1条
1 张闯;迟健男;张朝晖;王志良;;基于边缘检测与双边滤波的彩色图像去噪[J];电子学报;2010年08期
本文编号:2850819
本文链接:https://www.wllwen.com/guanlilunwen/gongchengguanli/2850819.html