遥感影像道路自动提取系统组件化设计与实现
发布时间:2020-08-09 10:23
【摘要】:基于高分辨率遥感影像的道路提取一直是遥感学界的重要课题,在近三十年来众多的研究学者提出了若干基于不同原理的方法,但是由于遥感影像地物特征的复杂性以及方法的局限性,具有足够适应性的算法还未出现。伴随着计算机计算能力的提高,深度学习在各个领域尤其是图像处理方面的不断发展,其也成为了研究高分辨率遥感影像道路提取的热门方向。由于路网信息的提取技术在军事领域,灾害救援指挥等领域有着重大意义,但目前仍没有某一个软件系统可以搭载各种不同算法并快速的进行道路信息的提取,因此本文针对深度学习方法对高分辨率遥感影像道路提取以及结果优化滤波开展了研究,并基于组件化技术开发了一套具有实际应用价值的遥感图像道路提取系统。本文的研究工作如下:(1)研究了全卷积神经网络结构,提出了基于相似度映射关系的高分辨率遥感影像道路提取模型。该模型对于遥感影像有道路提取能力,且对输入的数据大小无特殊要求,也无需过多人工参与。并且针对小样本训练进行研究并在模型的训练中进行应用。该模型在本文的实验数据训练后得到的道路提取准确率可达到86.5%。(2)研究了基于深度学习的噪声滤波模型以处理含有噪点过多的道路提取结果图像,分别利用对抗学习思想和循环学习思想建立了道路提取结果滤波模型。其中生成对抗网络模型在滤波的过程中具有了一定的图像增强能力,即补全了小部分道路缺失的部分。经过生成对抗滤波模型处理后道路噪声剔除比例为7.3%,经过循环学习模型处理后道路噪声剔除比例为6.4%。可以看出滤波模型对道路提取结果的准确提升还是有一定帮助的。(3)研究了组件化思想,利用动态链接库技术对上述深度学习模型算法进行了组件化设计,并将该算法组件嵌入到设计的道路提取软件系统中。开发出了一个用户界面友好,逻辑结构清晰的软件系统,该系统可根据要求随时添加任意算法插件。
【学位授予单位】:电子科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:TP751;P237
【图文】:
电子科技大学硕士学位论文,则称为饱和(没有限定条件);(3)假设 c 为任意常数,存在任意 x,在h′足|x|>c,则认为 h(x)是硬饱和激活函数;一个饱和但只有在极限下才达到激活函数称为软饱和激活函数。下文将对主要的几种激活函数进行介绍:3.1 SigmoidSigmoid 曾经是使用最为广泛的激活函数现在基本被 ReLU 替代。其定1( )1xf xe 如下图 2-3 为 Sigmiod 激活函数影像,Sigmoid 在定义域内处处可导,且趋于 0。
到有效的训练。同时该激活函数还会出现偏移现象,由图 2-3 所示,该激活函数的输出均于零,会导致下一层神经网络的输入均值不为零故而影响到后续的训练结果。但并不意味着 Sigmoid 没有其值得肯定的地方。例如它在物理意义上与元更加贴近;其输出范围可以用来表示概率并且连续可导可用于输入的3.2 tanhtanh 也是一种常见的激活函数,其定义如(2-6)所示:221( )1xxef xe (激活函数 tanh 函数图像如图 2-4 所示:
电子科技大学硕士学位论文3.3 ReLU在 2006 年 Nair 教授提出了一种新的方式来解决深度网络训练困难的问题对训练网络进行分层预训练,但是其真正的突破点在于使用了新的激活U[41]。ReLU 的定义如式(2-7)所示:f ( x ) Max (0, x )(ReLU 激活函数在一定程度上解决了部分梯度消失的问题,因此可以使用的方式进行深层次神经网络的训练。ReLU 激活函数影像如图 2-5 所示:
【学位授予单位】:电子科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:TP751;P237
【图文】:
电子科技大学硕士学位论文,则称为饱和(没有限定条件);(3)假设 c 为任意常数,存在任意 x,在h′足|x|>c,则认为 h(x)是硬饱和激活函数;一个饱和但只有在极限下才达到激活函数称为软饱和激活函数。下文将对主要的几种激活函数进行介绍:3.1 SigmoidSigmoid 曾经是使用最为广泛的激活函数现在基本被 ReLU 替代。其定1( )1xf xe 如下图 2-3 为 Sigmiod 激活函数影像,Sigmoid 在定义域内处处可导,且趋于 0。
到有效的训练。同时该激活函数还会出现偏移现象,由图 2-3 所示,该激活函数的输出均于零,会导致下一层神经网络的输入均值不为零故而影响到后续的训练结果。但并不意味着 Sigmoid 没有其值得肯定的地方。例如它在物理意义上与元更加贴近;其输出范围可以用来表示概率并且连续可导可用于输入的3.2 tanhtanh 也是一种常见的激活函数,其定义如(2-6)所示:221( )1xxef xe (激活函数 tanh 函数图像如图 2-4 所示:
电子科技大学硕士学位论文3.3 ReLU在 2006 年 Nair 教授提出了一种新的方式来解决深度网络训练困难的问题对训练网络进行分层预训练,但是其真正的突破点在于使用了新的激活U[41]。ReLU 的定义如式(2-7)所示:f ( x ) Max (0, x )(ReLU 激活函数在一定程度上解决了部分梯度消失的问题,因此可以使用的方式进行深层次神经网络的训练。ReLU 激活函数影像如图 2-5 所示:
【参考文献】
相关期刊论文 前10条
1 张景虎;孔芳;;人工智能算法在图像处理中的应用[J];电子技术与软件工程;2014年08期
2 蔡红s
本文编号:2786982
本文链接:https://www.wllwen.com/kejilunwen/dizhicehuilunwen/2786982.html