当前位置:主页 > 理工论文 > 轻工业论文 >

基于深度学习的服装图像生成与交互式编辑

发布时间:2021-12-18 04:30
  一直以来,如何让计算机生成真实的图像是人工智能领域的一个研究难题。图像是人们日常学习,工作和生活中常见的媒体承载。图像合成以及编辑的需求也日益增加,要求也越来越高。无论是大众流行的修图还是专业设计师的设计图都需要这一技术的支持。近年来的研究表明,基于深度学习的算法在图像编辑和图像合成任务中取得了明显的突破。深度神经网络通过学习图像中的语义信息以及潜在的编码特征来理解以及生成图像。由于图像生成是像素级别的任务,分辨率越高任务越困难。本文将基于深度神经网络,研究由服装轮廓图生成高质量分辨率的服装图像生成算法来辅助服装设计流程。我们主要的工作在于:1.提出了一种新的纹理表达方式,纹理双色线(Bi-Colored edge)。这种表达方能够在图像生成质量和交互复杂性中达到一个良好的平衡。已有的服装图像生成算法都是提供小块的纹理图案给网络,试图让网络铺满到整个衣服区域。尽管这种方式不需要复杂的交互,但是无法生成高质量的、纹理清晰的服装图案。为此我们提出了纹理双色线这种新的纹理表达方式。我们将通过实验证明,这种新的表达方式能够生成纹理可控、细节可控的真实高清图像。2.提出了一个阴影增强器。我们发现... 

【文章来源】:华南理工大学广东省 211工程院校 985工程院校 教育部直属院校

【文章页数】:59 页

【学位级别】:硕士

【部分图文】:

基于深度学习的服装图像生成与交互式编辑


引导式填充任务的训练数据集制作流程[12]

网络结构图,编码器,网络结构,变分


华南理工大学硕士学位论文8图2-1自编码器的网络结构自编码器将图片编码为低维的向量表示,然后解码器将这些向量恢复出图片。这只能到达图片存储的作用,无法生成新的数据。因为我们无法生成合理的低维向量用于解码器生成数据,解码器只能生成编码器“见过”的图片。为了解决这个问题,我们可以对编码器的输出添加约束,也就是强迫它产生的低维向量服从标准正态分布。这正是变分编码器相对自编码器的改进之处。2.1.2变分编码器变分编码器和自编码器的网络框架是相同的,也是由编码器和解码器构成,区别在于编码器的输出不同。自编码器产生的潜在编码只能表示输入的图片,不满足某一分布,导致我们不能采样合理的潜在变量,从而无法生成新的数据。变分编码器通过对输出编码的约束,使其满足标准正态分布。这样做的一个目的是使得编码之后的向量即服从一个已知的分布,又可以保留原图像的特征。这样我们生成一张新图片就很容易了,只需要从这个已知分布中采样,就能实现数据生成的功能。因此变分编码器不再是学习样本的个体,而是学习样本的分布,试图将样本空间投影到一个已知分布的变量空间。图2-2变分编码器网络结构图因此变分编码器能够真正的生成新的数据,是一个生成网络。但是它不是直接使得编码器的输出是一个向量,因为如果是这样的话,在训练的时候就无法确定重新编码后得到的是否还对应着原来的,网络也就无法通过最小化损失函数(,G())来

网络结构图,变分,编码器


华南理工大学硕士学位论文8图2-1自编码器的网络结构自编码器将图片编码为低维的向量表示,然后解码器将这些向量恢复出图片。这只能到达图片存储的作用,无法生成新的数据。因为我们无法生成合理的低维向量用于解码器生成数据,解码器只能生成编码器“见过”的图片。为了解决这个问题,我们可以对编码器的输出添加约束,也就是强迫它产生的低维向量服从标准正态分布。这正是变分编码器相对自编码器的改进之处。2.1.2变分编码器变分编码器和自编码器的网络框架是相同的,也是由编码器和解码器构成,区别在于编码器的输出不同。自编码器产生的潜在编码只能表示输入的图片,不满足某一分布,导致我们不能采样合理的潜在变量,从而无法生成新的数据。变分编码器通过对输出编码的约束,使其满足标准正态分布。这样做的一个目的是使得编码之后的向量即服从一个已知的分布,又可以保留原图像的特征。这样我们生成一张新图片就很容易了,只需要从这个已知分布中采样,就能实现数据生成的功能。因此变分编码器不再是学习样本的个体,而是学习样本的分布,试图将样本空间投影到一个已知分布的变量空间。图2-2变分编码器网络结构图因此变分编码器能够真正的生成新的数据,是一个生成网络。但是它不是直接使得编码器的输出是一个向量,因为如果是这样的话,在训练的时候就无法确定重新编码后得到的是否还对应着原来的,网络也就无法通过最小化损失函数(,G())来


本文编号:3541634

资料下载
论文发表

本文链接:https://www.wllwen.com/projectlw/qgylw/3541634.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户50835***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com