基于多层级联网络的多光谱图像显著性检测研究
发布时间:2021-07-31 13:02
图像显著性检测在应对场景中目标的准确确定位置和对应内容的搜索任务中起到了至关重要的作用。虽然近年来,针对图像显著性目标检测的算法以及研究方法有很多被提出,尤其是基于深度学习的图像显著性目标检测算法,但是对应的任务精度和图像显著性特征利用率仍然有提升空间,以及复杂条件和场景下的显著性目标检测任务仍然没有得到很好的解决。所以针对以上各类问题,本文分别提出了基于深度多尺度特征信息级联网络架构和同功能的深度模型的多模态显著性目标检测算法,以提高图像显著性目标检测的精度和图像特征的利用率,以及解决复杂条件和场景下的显著性目标检测结果鲁棒性和精确度的提高。本文中主要工作如下:(1)全卷积神经网络在当前的显著性检测任务中起着重要的作用,因为它的多层结构描述了图像在不同尺度下的深度特征。为了合理有效地聚集和利用各层次的显著特征,提出了一种新型的端到端多层卷积特征级联模型。该模型由两个模块组成:一是通过改进的全卷积网络实现的多层次深度特征提取模块;另一个模块是多层次特征融合模块,它通过级联、上采样、反卷积等操作,将多个池化层对应的全局轮廓特征和局部精细特征有效的合并为一个整体。最后,利用融合模块的输出,...
【文章来源】:安徽大学安徽省 211工程院校
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
图像显著性检测单张示例展示
安徽大学硕士学位论文7得显著成效的模型就是LeNet-5[22],当时的实验目标是对手写数字的图片进行识别并输出对应的数字,该网络架构训练的数据集为MNIST[22],网络对应架构如下图中所示:图2.1.LeNet网络架构[22]Fig2.1.ArchitectureofLeNet-5相比于目前提出的研究算法中常用的卷积神经网络架构,它们与LeNet-5的差异并不是很大。一些关键的层级组成结构都留存至今。例如池化层,后面连接卷积层,继而加上全连接层配合激活函数层,等一系列层级搭配。池化层在网络架构中主要起到降低上一层级特征信息维度进行下采样的作用。池化操作需要确定卷积核的步长,然后以此将上一层级的特征信息分成若干区域,对这些区域采用不用的方式进行取值然后得到降维之后的层级信息,一般常用操作方法的是取分化区域的平均值,或者去当前区域的最大值,分别对应着(Average-Pooling)和(Max-Pooling)操作。池化操作在一定程度上可以降低网络架构的参数规模且保留相对重要关键的特征信息,需要注意的是池化层本身并不包含可训练的参数,但是在搭建架构的时候在代码里有池化方式方法,池化步长以及池化域的尺寸这三个超参数来控制池化层。另一方面,池化层作为深度学习网络架构不可或缺的一部分,它在某些方面减少了平移以及其他操作变换对CNN的影响。全连接层通常是处在网络架构的后端,与前面的卷积层或者是池化层进行连接,多数情况以及实验场景下,全连接层的用途是用以将之前运算的层级信息进行向量化,在做分类任务的时候将全连接层配合Softmax函数用作分类也十分的方便,一个网络架构如果包含全连接层,那么将会有很大一部分的架构参数来源于全连接层。这是研究深度学习架构的研究者么在当初所困扰的问题,后来有Lin等研究者[22]提出了新的改进层级全
安徽大学硕士学位论文9优点的话会使目标的模型训练陷入局部优化的死循环,具体情况如下图所示:图2.2.函数局部最优示例Fig2.2.Theexampleoflocaloptimum一般为应对这种情况,常用的是在实际的模型框架中采用随机梯度下降法(SGD,Stochasticgradientdescent),这样使模型学习训练方面存在避免局部最优的可能。但是在常规模型当中采用Adam[25]优化器的表现会更好,收敛速度更快。一般在模型训练完成之后,我们还会通过对应的测试集测试已经训练完成的模型预期表现。一般设定测试集和验证集的原则是这两者中不能有训练集中的数据。通过这样的测出的表现来评判目标模型的泛化能力和鲁棒性以及模型的准确性。后来,卷积神经网络再添一员Krizhevsky等研究者[26]提出了AlexNet网络架构,在2012年的ILSVRC图像分类竞赛中取得优异成绩。自此,开始了研究CNN网络结构的潮流,目前被应用且改进广泛的VGG[33]模型是继AlexNet神经网络模型之后更深层级架构的代表性模型。而后面出现的GoogleNet[28]架构,不仅相较于之前的模型有了更深的网络层级且在其中添加了Inception模块以拓宽网络规模同时也增加了学习特征的多样性。其实这也得益于雄厚的计算硬件资源,有了这个前提也为更加精确且有更加优异
【参考文献】:
期刊论文
[1]深度学习研究综述[J]. 孙志军,薛磊,许阳明,王正. 计算机应用研究. 2012(08)
本文编号:3313517
【文章来源】:安徽大学安徽省 211工程院校
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
图像显著性检测单张示例展示
安徽大学硕士学位论文7得显著成效的模型就是LeNet-5[22],当时的实验目标是对手写数字的图片进行识别并输出对应的数字,该网络架构训练的数据集为MNIST[22],网络对应架构如下图中所示:图2.1.LeNet网络架构[22]Fig2.1.ArchitectureofLeNet-5相比于目前提出的研究算法中常用的卷积神经网络架构,它们与LeNet-5的差异并不是很大。一些关键的层级组成结构都留存至今。例如池化层,后面连接卷积层,继而加上全连接层配合激活函数层,等一系列层级搭配。池化层在网络架构中主要起到降低上一层级特征信息维度进行下采样的作用。池化操作需要确定卷积核的步长,然后以此将上一层级的特征信息分成若干区域,对这些区域采用不用的方式进行取值然后得到降维之后的层级信息,一般常用操作方法的是取分化区域的平均值,或者去当前区域的最大值,分别对应着(Average-Pooling)和(Max-Pooling)操作。池化操作在一定程度上可以降低网络架构的参数规模且保留相对重要关键的特征信息,需要注意的是池化层本身并不包含可训练的参数,但是在搭建架构的时候在代码里有池化方式方法,池化步长以及池化域的尺寸这三个超参数来控制池化层。另一方面,池化层作为深度学习网络架构不可或缺的一部分,它在某些方面减少了平移以及其他操作变换对CNN的影响。全连接层通常是处在网络架构的后端,与前面的卷积层或者是池化层进行连接,多数情况以及实验场景下,全连接层的用途是用以将之前运算的层级信息进行向量化,在做分类任务的时候将全连接层配合Softmax函数用作分类也十分的方便,一个网络架构如果包含全连接层,那么将会有很大一部分的架构参数来源于全连接层。这是研究深度学习架构的研究者么在当初所困扰的问题,后来有Lin等研究者[22]提出了新的改进层级全
安徽大学硕士学位论文9优点的话会使目标的模型训练陷入局部优化的死循环,具体情况如下图所示:图2.2.函数局部最优示例Fig2.2.Theexampleoflocaloptimum一般为应对这种情况,常用的是在实际的模型框架中采用随机梯度下降法(SGD,Stochasticgradientdescent),这样使模型学习训练方面存在避免局部最优的可能。但是在常规模型当中采用Adam[25]优化器的表现会更好,收敛速度更快。一般在模型训练完成之后,我们还会通过对应的测试集测试已经训练完成的模型预期表现。一般设定测试集和验证集的原则是这两者中不能有训练集中的数据。通过这样的测出的表现来评判目标模型的泛化能力和鲁棒性以及模型的准确性。后来,卷积神经网络再添一员Krizhevsky等研究者[26]提出了AlexNet网络架构,在2012年的ILSVRC图像分类竞赛中取得优异成绩。自此,开始了研究CNN网络结构的潮流,目前被应用且改进广泛的VGG[33]模型是继AlexNet神经网络模型之后更深层级架构的代表性模型。而后面出现的GoogleNet[28]架构,不仅相较于之前的模型有了更深的网络层级且在其中添加了Inception模块以拓宽网络规模同时也增加了学习特征的多样性。其实这也得益于雄厚的计算硬件资源,有了这个前提也为更加精确且有更加优异
【参考文献】:
期刊论文
[1]深度学习研究综述[J]. 孙志军,薛磊,许阳明,王正. 计算机应用研究. 2012(08)
本文编号:3313517
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3313517.html
最近更新
教材专著