当前位置:主页 > 科技论文 > 自动化论文 >

自监督生成对抗网络优化

发布时间:2021-04-13 12:08
  自2014年被提出以来,GAN在图像生成、图像风格转换、图像缺失补全等计算机视觉相关领域,以及语音合成、自然语言处理等领域都取得了很好的结果。但是,GAN的训练存在诸多困难,如梯度消失,模式崩溃,判别器遗忘分类边界等。目前主要是通过CGAN生成自然图像,通过加入约束条件控制GAN的生成,这种模型的主要不足是需要标记数据,然而对数据进行标注需要耗费大量的人力和物力,这是十分困难的,甚至有时是不可行的。针对这个问题,本文引入自监督GAN的思想,它结合了两种流行的无监督学习技术,即对抗训练和自监督学习,拉近了无监督学习和监督学习之间的差距。但在自监督GAN中对于生成图像的旋转,对抗损失和旋转损失是对抗的,这样会导致生成器的质量对判别器影响略大,因此,本文对自监督GAN的生成器损失函数进行了优化,进一步加强了GAN训练的稳定性。又由于自监督GAN训练初期生成图像的质量较差,此时对图像进行旋转,提取特征进行检测,得到的结果差强人意。因此,本文提出对自监督GAN进行预处理,通过实验证明了本文提出的模型生成的图像更加逼真。通过对自监督GAN进行优化,在一定程度上缓解了判别器遗忘分类边界的问题,降低了... 

【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校

【文章页数】:56 页

【学位级别】:硕士

【部分图文】:

自监督生成对抗网络优化


GAN的计算流程和结构图

流程图,流程图,神经网络,模型


哈尔滨工业大学工程硕士学位论文-7-第2章生成对抗网络模型本章主要介绍典型GAN模型的原理,以及GAN模型中生成器和判别器应用的神经网络和对GAN进行优化时采用的深度学习方法。首先介绍了典型GAN模型对原始GAN做出的改进。其次为了在生成器和判别器中更好地使用神经网络,先介绍了神经网络的发展历程,接着对本文GAN采用的两种神经网络模型——全连接神经网络和卷积神经网络进行了论述,并对深度学习中的激活函数和优化算法进行了概述,以及分析它们的优缺点,为在本文GAN模型中对它们更好地进行选择使用。2.1典型GAN模型原始GAN模型中包含了两个互相对抗的网络:生成器网络(Generator)与判别器网络(Discriminator)。图2-1GAN训练流程图在GAN模型中,生成器G接收输入的随机噪声向量z并输出生成数据G(z),同时判别器D需要判断输入的数据中,哪些来自真实的数据分布,哪些来自生成的数据分布。生成器的目的是使得判别器D无法判别输入样本的真假,而判别器的目的是能够准确地判断输入样本的真假。在模型训练的过程中两者通过更新自

数字,步幅


提出。CGAN在原始GAN的基础上增加了约束条件,解决了GAN太过自由的问题,促使网络朝着既定的方向生成样本。CGAN的生成器和判别器的输入均多了一个约束项y,约束项y可以是一个图像的类别标签,也可以是图像的部分语义特征,甚至也可以是一个图像。CGAN的目标函数如下:)))|((1log()|(log),()(~)(~GVEyxDDyzGEDdatazGxPzxP(2-2)CGAN可以根据条件变量y生成指定的数据,如图2-2所示,然而CGAN只是为了生成指定的图像而增加了额外的约束,在很大程度上缓解了GAN生成样本过于自由的问题,但是GAN训练不稳定的问题依然存在。图2-2CGAN生成的MNIST数字(2)DCGAN[16]。DCGAN的提出对GAN的发展具有巨大的历史性意义,它对GAN的网络结构进行了扩展,它将GAN中的生成网络和判别网络用两个卷积神经网络来实现。同时,DCGAN在训练过程中使用了一系列的训练技巧,如使用批量归一化稳定训练,使用ReLU激活函数降低梯度消失风险,同时取消了池化层,使用步幅卷积和微步幅卷积有效地保留了特征信息。DCGAN虽然能生成多样

【参考文献】:
期刊论文
[1]生成对抗网络GAN综述[J]. 梁俊杰,韦舰晶,蒋正锋.  计算机科学与探索. 2020(01)
[2]人工智能研究的新前线:生成式对抗网络[J]. 林懿伦,戴星原,李力,王晓,王飞跃.  自动化学报. 2018(05)

硕士论文
[1]基于多任务学习的肿瘤医学影像语义分割与分类研究[D]. 邹致超.哈尔滨工业大学 2019
[2]基于生成对抗网络的手写体汉字生成[D]. 张艺颖.华东师范大学 2019



本文编号:3135268

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3135268.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户933d2***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com