基于改进GAN网络的图像去噪及图像超分辨方法研究
发布时间:2020-12-13 17:16
近年来,随着深度学习理论的成功应用,很多研究者对相关内容越来越感兴趣,大量的计算资源和设计人员投入到了相关理论及应用的研究中去,自2014年Ian Goodfellow提出生成对抗网络理论(GAN)以来,人们对于它的理论思想及其在各个场景中的应用研究越来越感兴趣,人们将具有深度结构的卷积网络与GAN相结合起来,做出了令人惊讶的探究。GAN网络的核心思想是两人互博的游戏,这种对抗的思想类似于人的行为,从某种程度上来说,研究GAN网络的理论及其应用,实际上是在研究人类的决策行为。以往的数字图像的处理大多依赖于传统的方法,如均方误差,高斯去噪,边缘提取等,这些方法在对质量要求不是很高的应用场景下确实能够完成大多数图像处理任务,图像增强,高分辨,图像的去噪,图像的生成等。但是这些传统的处理算法最明显的难点在于设计时的人为性,这些算法太过于依赖人们提出的算法,而没有新时代深度学习中的自主学习的能力,这就导致了在很多复杂的应用场景下,难以再用传统的方法进行处理。但GAN网络的诞生为这些问题提供了新的解决思路,GAN网络在处理图像过程中不像传统的算法那样依赖人为设计参数,而是能够自主的学习并更新参数...
【文章来源】:西南大学重庆市 211工程院校 教育部直属院校
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
DCGAN网络在celebA数据集上生成的人脸图像
癓argeScaleGANTrainingforHighFidelityNaturalImageSynthesis”。图1.2展示的这些图片都是利用BigGAN网络来生成的,实验结果展示了生成的图像质量很高,足以以假乱真。这是GAN首次生成具有高保真度(InceptionScore)和低品种差距(FrechetInceptionDistance)的图像。在BigGAN提出以前,其他网路生成图像的最高得分是52.52,而其出现后的得分是166.3,比以往的技术(SOTA)要高100%。此外,他们还把Frechet初始距离(FID)得分从18.65提高到了9.6。这些都是非常令人惊艳的结果。它主要的贡献是改进了生成器的正交正则化。图1.2BigGAN生成的具有高度真实性的图像StyleGAN是GAN研究领域的另一项重大突破。StyleGAN由Nvidia在题为“AStyle-BasedGeneratorArchitectureforGenerativeAdversarialNetwork”的论文中介绍。StykleGAN在生成人类面部图像的任务里面创造了新的记录。它的核心算法是风格转移的技术或者风格的混合技术。这种网络不仅可以用来生成人脸图像,还能用来生成很清晰的汽车图像、卧室的图像等等。这是GAN领域取得的有一个重大的改进网络,也是许多深度学习研究者的灵感来源。由HanZhang,TaoXu,HongshengLi还有其他人在题为“StackGAN:TexttoPhoto-realisticImageSynthesiswithStackedGenerativeAdversarialNetworks”的论文中提出了StackGAN,StackGAN本质上就是两个CGAN的堆叠。如图1.3所示是其网络结构,如果我们没办法一次生成高分辨率又plausible的图片,那么可以分两次生成。第一阶段的ConditionalGAN利用文本描述提取出的嵌入向量(textembedding)粗略勾画物体主要的形状和颜色,生成低分辨率的图片。第二阶段的对抗生成网络将第一阶段的低分辨率图片和文本描述提取出的嵌入向量(textembedding)作为输入,生成细节丰富的高
西南大学硕士学位论文8两个网络构成,给一个文本的描述,就可以通过学习训练,生成相应的逼真图像。图1.4给出了这种网络的一个应用示例,给定一些对鸟类的文本描述时,它生成了非常逼真的图像,而且这种图像和所给定的文本描述非常类似。根据文本生成图像的应用存在着许多的实际应用,例如把文本描述的故事转换成相应的漫画内容,根据一段文字的描述,来生成某个犯罪嫌疑人的照片等。图1.3StackGAN的网络结构图1.4StackGAN根据文本描述生成的图像CycleGAN由Jun-YanZhu,TaesungPark,PhillipIsola和AlexeiA.Efros在“UnpairedImage-to-ImageTranslationusingCycle-ConsistentAdversarialNetworks”的论文中提出。这个网络是环形结构,它有两个生成器和两个判别器,如图1.5所示。用X来代表X域的图像,Y代表Y域的图像。利用生成器G可以把X域的图像生成Y域的图像,然后通过另一个生成器F可以把Y域的图像重构成X
【参考文献】:
期刊论文
[1]基于递归残差网络的图像超分辨率重建[J]. 周登文,赵丽娟,段然,柴晓亮. 自动化学报. 2019(06)
[2]基于对抗训练策略的语言模型数据增强技术[J]. 张一珂,张鹏远,颜永红. 自动化学报. 2018(05)
[3]基于条件深度卷积生成对抗网络的图像识别方法[J]. 唐贤伦,杜一铭,刘雨微,李佳歆,马艺玮. 自动化学报. 2018(05)
[4]面向自然语言处理的深度学习研究[J]. 奚雪峰,周国栋. 自动化学报. 2016(10)
[5]空间移不变系统图像超分辨复原的快速解耦算法[J]. 黄丽丽,肖亮,韦志辉,张军. 自动化学报. 2010(02)
[6]图像超分辨率重建技术与方法综述[J]. 沈焕锋,李平湘,张良培,王毅. 光学技术. 2009(02)
[7]基于PSNR与SSIM联合的图像质量评价模型[J]. 佟雨兵,张其善,祁云平. 中国图象图形学报. 2006(12)
本文编号:2914890
【文章来源】:西南大学重庆市 211工程院校 教育部直属院校
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
DCGAN网络在celebA数据集上生成的人脸图像
癓argeScaleGANTrainingforHighFidelityNaturalImageSynthesis”。图1.2展示的这些图片都是利用BigGAN网络来生成的,实验结果展示了生成的图像质量很高,足以以假乱真。这是GAN首次生成具有高保真度(InceptionScore)和低品种差距(FrechetInceptionDistance)的图像。在BigGAN提出以前,其他网路生成图像的最高得分是52.52,而其出现后的得分是166.3,比以往的技术(SOTA)要高100%。此外,他们还把Frechet初始距离(FID)得分从18.65提高到了9.6。这些都是非常令人惊艳的结果。它主要的贡献是改进了生成器的正交正则化。图1.2BigGAN生成的具有高度真实性的图像StyleGAN是GAN研究领域的另一项重大突破。StyleGAN由Nvidia在题为“AStyle-BasedGeneratorArchitectureforGenerativeAdversarialNetwork”的论文中介绍。StykleGAN在生成人类面部图像的任务里面创造了新的记录。它的核心算法是风格转移的技术或者风格的混合技术。这种网络不仅可以用来生成人脸图像,还能用来生成很清晰的汽车图像、卧室的图像等等。这是GAN领域取得的有一个重大的改进网络,也是许多深度学习研究者的灵感来源。由HanZhang,TaoXu,HongshengLi还有其他人在题为“StackGAN:TexttoPhoto-realisticImageSynthesiswithStackedGenerativeAdversarialNetworks”的论文中提出了StackGAN,StackGAN本质上就是两个CGAN的堆叠。如图1.3所示是其网络结构,如果我们没办法一次生成高分辨率又plausible的图片,那么可以分两次生成。第一阶段的ConditionalGAN利用文本描述提取出的嵌入向量(textembedding)粗略勾画物体主要的形状和颜色,生成低分辨率的图片。第二阶段的对抗生成网络将第一阶段的低分辨率图片和文本描述提取出的嵌入向量(textembedding)作为输入,生成细节丰富的高
西南大学硕士学位论文8两个网络构成,给一个文本的描述,就可以通过学习训练,生成相应的逼真图像。图1.4给出了这种网络的一个应用示例,给定一些对鸟类的文本描述时,它生成了非常逼真的图像,而且这种图像和所给定的文本描述非常类似。根据文本生成图像的应用存在着许多的实际应用,例如把文本描述的故事转换成相应的漫画内容,根据一段文字的描述,来生成某个犯罪嫌疑人的照片等。图1.3StackGAN的网络结构图1.4StackGAN根据文本描述生成的图像CycleGAN由Jun-YanZhu,TaesungPark,PhillipIsola和AlexeiA.Efros在“UnpairedImage-to-ImageTranslationusingCycle-ConsistentAdversarialNetworks”的论文中提出。这个网络是环形结构,它有两个生成器和两个判别器,如图1.5所示。用X来代表X域的图像,Y代表Y域的图像。利用生成器G可以把X域的图像生成Y域的图像,然后通过另一个生成器F可以把Y域的图像重构成X
【参考文献】:
期刊论文
[1]基于递归残差网络的图像超分辨率重建[J]. 周登文,赵丽娟,段然,柴晓亮. 自动化学报. 2019(06)
[2]基于对抗训练策略的语言模型数据增强技术[J]. 张一珂,张鹏远,颜永红. 自动化学报. 2018(05)
[3]基于条件深度卷积生成对抗网络的图像识别方法[J]. 唐贤伦,杜一铭,刘雨微,李佳歆,马艺玮. 自动化学报. 2018(05)
[4]面向自然语言处理的深度学习研究[J]. 奚雪峰,周国栋. 自动化学报. 2016(10)
[5]空间移不变系统图像超分辨复原的快速解耦算法[J]. 黄丽丽,肖亮,韦志辉,张军. 自动化学报. 2010(02)
[6]图像超分辨率重建技术与方法综述[J]. 沈焕锋,李平湘,张良培,王毅. 光学技术. 2009(02)
[7]基于PSNR与SSIM联合的图像质量评价模型[J]. 佟雨兵,张其善,祁云平. 中国图象图形学报. 2006(12)
本文编号:2914890
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/2914890.html