基于条件生成对抗网络的图像特征解混与多属性编辑研究

发布时间:2022-07-16 17:35
  图像生成模型的学习是计算机视觉领域的一个关键问题。模型旨在拟合图像数据的分布,使其能够生成不在数据集中但符合分布的新样本。由于图像分布处于高维空间且十分复杂,该任务具有一定难度。随着深度学习的发展,相继出现了一系列深度生成模型,其中生成对抗网络(Generative Adversarial Network,GAN)和变分自编码器(Variational Auto-Encoder,VAE)是两种广泛使用的方法。为控制生成的图像符合指定条件,可在模型中引入额外的条件。本文针对条件图像生成任务,从增强生成图质量和多样性方面入手,对于条件是类别标签和图像的情况分别展开研究。本文的研究内容及创新点如下:(1)对于条件是类别标签的情况,在条件变分自编码器(Conditional Varia-tional Auto-Encoder,CVAE)和条件生成对抗网络(Conditional Generative Adver-sarial Network,CGAN)的混合模型CVAE-GAN的基础上,提出使用两个独立的编码器将特征空间解混为标签相关和无关两个部分。为解决VAE中的后验崩溃问题,在标签相关特征... 

【文章页数】:86 页

【学位级别】:硕士

【文章目录】:
摘要
Abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
    1.3 数据集介绍
    1.4 本文研究内容及全文组织结构
        1.4.1 研究内容
        1.4.2 全文组织结构
第二章 基础知识和相关技术
    2.1 卷积神经网络
        2.1.1 经典网络框架
    2.2 分布距离度量与图像评价指标
        2.2.1 分布距离度量
        2.2.2 图像评价指标
    2.3 变分自编码器
        2.3.1 VAE
        2.3.2 CVAE
    2.4 生成对抗网络
        2.4.1 GAN
        2.4.2 WGAN
        2.4.3 WGAN-GP
        2.4.4 SNGAN
        2.4.5 CGAN
    2.5 VAE与GAN的结合
        2.5.1 VAE/GAN
        2.5.2 CVAE-GAN
    2.6 图到图转换
        2.6.1 Star GAN
        2.6.2 STGAN
        2.6.3 UGAN
    2.7 本章小结
第三章 基于CGAN的图像特征解混算法
    3.1 引言
    3.2 图像特征解混算法
        3.2.1 VAE部分的问题描述
        3.2.2 标签无关分支
        3.2.3 标签相关分支
        3.2.4 解码器与判别器
        3.2.5 训练过程
        3.2.6 半监督学习拓展
    3.3 实验
        3.3.1 人工合成数据集示例
        3.3.2 图像生成
        3.3.3 特征空间解混分析
        3.3.4 半监督图像生成
        3.3.5 图像修复
    3.4 本章小结
第四章 基于CGAN的多属性编辑算法
    4.1 引言
    4.2 多属性编辑算法
        4.2.1 网络框架
        4.2.2 两阶段训练策略
        4.2.3 训练过程
    4.3 实验
        4.3.1 实验细节
        4.3.2 域插值训练的分析
        4.3.3 多解码器的分析
        4.3.4 效果定性评估
        4.3.5 效果定量评估
    4.4 本章小结
第五章 总结与展望
    5.1 本文总结
    5.2 展望
参考文献
附录一 中英文对照缩略词表
附录二 图像特征解混算法中的数学推导
攻读硕士期间所取得的研究成果
致谢



本文编号:3662959

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3662959.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户cede3***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com