基于对抗网络的图像数据集扩充研究与实现
发布时间:2021-08-04 15:41
近年来,深度学习一直是计算机领域的研究热点,随着研究的不断深入,深度学习目前在理论上达到瓶颈期。数据集的质量和大小对于深度学习模型最终性能的影响至关重要。生成对抗网络GAN是一种新的无监督生成式模型,以其新颖的博弈思想来训练神经网络,自提出后便受到研究人员的广泛关注。GAN中存在一个生成器网络和一个判别器网络,通过生成器和判别器之间不断相互对抗进行学习,直至达到纳什平衡,从而可以从无到有生成图像数据,因此可以依靠GAN强大的生成能力扩充图像数据集。但是在实验中GAN存在训练不稳定、模型难以收敛、训练过程高度自由不可控等问题,使得生成的图像质量效果往往不尽人意。深度卷积生成对抗网络DCGAN是GAN的一种衍生模型,通过引入卷积神经网络对GAN原有的网络结构进行改进,使得网络模型的训练过程更加稳定,成为后续GAN各种变体的标准结构。在实验中,DCGAN生成64×64分辨率的图像样本时会出现一些无意义的图像,或者图像某些特征过于相似、缺乏多样性。DCGAN中是以交叉熵函数作为损失函数,而理论上最小二乘法作为损失函数时,其可以对被判别器判别为真,但距离判别器的决策边界较远的伪造样本进行惩罚,使...
【文章来源】:西安理工大学陕西省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
卷积运算Fig.2-5Convolutionoperation
徊闶淙胫?湮?咝怨叵担?蘼劬??嗌倬砘?悖??出都只是输入的简单线性组合,无法学习到复杂的特征信息。激活层通过对上层的输出数据使用一些非线性函数进行处理,使得网络层之间的输入输出不再是简单的线性关系。在加入激活层后,网络可以通过不断的学习,逐渐逼近任意非线性函数,从而使得网络模型越来越靠近设计需求[37-39]。激活函数的选择对于卷积神经网络来说至关重要,下面对一些常用激活函数进行简单的介绍。(1)Sigmoid函数Sigmoid函数的表达式如下式(2-2)所示,函数图像如图2-6所示。()=11+(2-2)图2-6Sigmoid图形Fig.2-6SigmoidgraphicalSigmoid函数将输入数据映射到(0,1)的区间内,可以被用来表示概率或者做数据归一化操作。Sigmoid函数曾经被广泛使用,后来由于它固有的一些缺点,被使用的越来越少。由它的函数图形图2-6可以看出,当输入Sigmoid函数的数据很大或者很小时,其梯度将变得很小,而如果网络中间层特别多,原本的梯度就不大,当梯度经反向传播算法从后向前传播到达前面的网络层时,通过一层层的计算,其将逐渐变得越来越小接近于0,从而导致网络很容易出现梯度消失的情况,一般在5层以内就会出现这样的问题。另外一方面,Sigmoid函数的输出不是0的均值,这样网络在更新参数时会出现朝某一特定方向发展的问题,不利于网络的学习。且Sigmoid函数中含有幂函数,在求解时相对比较复杂,不利于下一层的运算。因此后来很少将Sigmoid函数使用在隐藏层中,通常用于在网络最
相关理论和算法介绍11后一层获得二分类概率,来说明网络的训练情况。(2)Tanh函数Tanh函数相较于Sigmoid函数更为常见,它将输入的数据压缩到(-1,1)的范围内,其收敛速度相较后者来说更为快速。Tanh公式如(2-3)所示,函数图像如图2-7所示。()=+(2-3)图2-7Tanh图形Fig.2-7TanhgraphicalTanh函数输出是0的均值,但由图2-7可以看出,当输入的数据很小或者很大时,Tanh函数的梯度同样会趋近于0。因此在网络的梯度传递过程中,依然会发生梯度消失的问题。(3)ReLU函数ReLU函数全称为线性整流单元函数(RectifiedLinearUnits),其公式如(2-4)所示,函数图像如图2-8所示。()=(0,)(2-4)图2-8ReLU图形Fig.2-8ReLUgraphical
【参考文献】:
期刊论文
[1]生成对抗网络的研究进展综述[J]. 吴少乾,李西明. 计算机科学与探索. 2020(03)
[2]生成对抗网络研究综述[J]. 邹秀芳,朱定局. 计算机系统应用. 2019(11)
[3]卷积神经网络研究综述[J]. 周飞燕,金林鹏,董军. 计算机学报. 2017(06)
[4]图像理解中的卷积神经网络[J]. 常亮,邓小明,周明全,武仲科,袁野,杨硕,王宏安. 自动化学报. 2016(09)
[5]几种图像缩放算法的研究[J]. 李秀英,袁红. 现代电子技术. 2012(05)
[6]激活函数对BP网络性能的影响及其仿真研究[J]. 王雪光,郭艳兵,齐占庆. 自动化技术与应用. 2002(04)
[7]关于统计学习理论与支持向量机[J]. 张学工. 自动化学报. 2000(01)
[8]前馈神经网络中的反向传播算法及其改进:进展与展望[J]. 刘曙光,郑崇勋,刘明远. 计算机科学. 1996(01)
本文编号:3321964
【文章来源】:西安理工大学陕西省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
卷积运算Fig.2-5Convolutionoperation
徊闶淙胫?湮?咝怨叵担?蘼劬??嗌倬砘?悖??出都只是输入的简单线性组合,无法学习到复杂的特征信息。激活层通过对上层的输出数据使用一些非线性函数进行处理,使得网络层之间的输入输出不再是简单的线性关系。在加入激活层后,网络可以通过不断的学习,逐渐逼近任意非线性函数,从而使得网络模型越来越靠近设计需求[37-39]。激活函数的选择对于卷积神经网络来说至关重要,下面对一些常用激活函数进行简单的介绍。(1)Sigmoid函数Sigmoid函数的表达式如下式(2-2)所示,函数图像如图2-6所示。()=11+(2-2)图2-6Sigmoid图形Fig.2-6SigmoidgraphicalSigmoid函数将输入数据映射到(0,1)的区间内,可以被用来表示概率或者做数据归一化操作。Sigmoid函数曾经被广泛使用,后来由于它固有的一些缺点,被使用的越来越少。由它的函数图形图2-6可以看出,当输入Sigmoid函数的数据很大或者很小时,其梯度将变得很小,而如果网络中间层特别多,原本的梯度就不大,当梯度经反向传播算法从后向前传播到达前面的网络层时,通过一层层的计算,其将逐渐变得越来越小接近于0,从而导致网络很容易出现梯度消失的情况,一般在5层以内就会出现这样的问题。另外一方面,Sigmoid函数的输出不是0的均值,这样网络在更新参数时会出现朝某一特定方向发展的问题,不利于网络的学习。且Sigmoid函数中含有幂函数,在求解时相对比较复杂,不利于下一层的运算。因此后来很少将Sigmoid函数使用在隐藏层中,通常用于在网络最
相关理论和算法介绍11后一层获得二分类概率,来说明网络的训练情况。(2)Tanh函数Tanh函数相较于Sigmoid函数更为常见,它将输入的数据压缩到(-1,1)的范围内,其收敛速度相较后者来说更为快速。Tanh公式如(2-3)所示,函数图像如图2-7所示。()=+(2-3)图2-7Tanh图形Fig.2-7TanhgraphicalTanh函数输出是0的均值,但由图2-7可以看出,当输入的数据很小或者很大时,Tanh函数的梯度同样会趋近于0。因此在网络的梯度传递过程中,依然会发生梯度消失的问题。(3)ReLU函数ReLU函数全称为线性整流单元函数(RectifiedLinearUnits),其公式如(2-4)所示,函数图像如图2-8所示。()=(0,)(2-4)图2-8ReLU图形Fig.2-8ReLUgraphical
【参考文献】:
期刊论文
[1]生成对抗网络的研究进展综述[J]. 吴少乾,李西明. 计算机科学与探索. 2020(03)
[2]生成对抗网络研究综述[J]. 邹秀芳,朱定局. 计算机系统应用. 2019(11)
[3]卷积神经网络研究综述[J]. 周飞燕,金林鹏,董军. 计算机学报. 2017(06)
[4]图像理解中的卷积神经网络[J]. 常亮,邓小明,周明全,武仲科,袁野,杨硕,王宏安. 自动化学报. 2016(09)
[5]几种图像缩放算法的研究[J]. 李秀英,袁红. 现代电子技术. 2012(05)
[6]激活函数对BP网络性能的影响及其仿真研究[J]. 王雪光,郭艳兵,齐占庆. 自动化技术与应用. 2002(04)
[7]关于统计学习理论与支持向量机[J]. 张学工. 自动化学报. 2000(01)
[8]前馈神经网络中的反向传播算法及其改进:进展与展望[J]. 刘曙光,郑崇勋,刘明远. 计算机科学. 1996(01)
本文编号:3321964
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/3321964.html
最近更新
教材专著