基于GAN的图像数据增强方法研究
发布时间:2022-02-08 16:18
随着大数据时代的来临,数据的需求引起了爆发式的增长,而图像数据又是一种重要的表达方式。虽然在互联网上产生的图像数据总量不断增长,获取图像数据的方式便利,但图像数据的质量却不一定都有保证,如图像数据样本数量少、样本类别稀少或样本类别不平衡等问题都会给数据生成工作带来难度,并且目前图像数据的生成依然高度依赖人工要素,导致成本高昂且效率低下。数据增强技术针对图像这种高维数据,传统的方法虽然一定程度上可以增加图像样本数量,但大规模的生成图像样本则会增加过拟合的风险,往往效果有限。本文受到生成对抗网络(Generative Adversarial Network,GAN)近期成果的启发,提出了两种数据增强方法。所做的主要研究工作如下:(1)本文首先详细阐述传统的数据增强相关方法,其次深入研究卷积神经网络(Convolutional Neural Network,CNN)、GAN的相关基础理论及图像数据增强领域的研究难点。(2)提出了一种基于监督学习的条件自我注意生成对抗网络数据增强方法。针对生成指定类别的图像问题,该网络模型受条件生成对抗网络(Conditions GAN,CGAN)监督思想的启...
【文章来源】:西安邮电大学陕西省
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
卷积神经网络的典型结构
西安邮电大学硕士学位论文102.2.1网络结构CNN是一种多层次神经网络,其主要由卷积层、池化层和全连接层排列组合构成。卷积神经网络进行特征提取的核心模块是隐藏层的卷积层和池化层。此模型利用梯度下降法使网络的目标函数损失最小化,从而逐层反向调节网络中的权重参数。卷积层和子采样层提取到的图像特征在池化层之后是第一个全连接层。网络模型最后的输出层是一个分类器,可以采用逻辑回归和支持向量机[36]对输入图像进行分类。网络结构如下图2.1所示:图2.1卷积神经网络的典型结构卷积层:通过卷积运算可以提取出图像的特征,将卷积核提取的特征进行叠加形成特征图输入到下层。常用的二维卷积操作如图2.2所示:图2.2步长为1的二维卷积卷积层输出的图像尺寸一般小于或等于输入层的尺寸,卷积层的输入输出图像大小的关系如下公式表示:
为卷积步长,P为padding填充的像素值(P=1表示在卷积区域外进行1层填充)。池化层:对图像进行下采样,可以减少数据处理量的同时保留有用的信息,但在采样的时候图像特征的具体位置会混乱,原因是特征的位置在特征被遍历出来后,就变得不重要了,只要有这个特征和其它特征的相对位置,就能够应对同类物体在形变和扭曲后的变化。常用的方法有两种,一种是最大值池化(max-pooling),对领域内特征点取最大值,作用是保留图像背景;另一种是平均值池化(mean-pooling),对领域内特征点求平均值,作用是保留图像的纹理信息。如图2.3所示:图2.3最大池化和平均池化示例全连接层:利用softmax全连接,提取到的图像特征。在整个CNN中起到分类器的作用。本质是将一个特征空间线性变换到另一个特征空间。近年来学者们对CNN做出了许多优化改良,从2012年AlexNet被提出之后,引爆了神经网络的应用热潮。再到后来设计出了深层的深度卷积网络VGGNet,构建密集的块结构的GoogleNet,防止梯度消失的残差卷积神经网络ResNet[37]。虽然提升网络性能最直接的办法就是增加网络深度和宽度,但会产生巨量的参数,容易导致过拟合、梯度消失等问题。因此设计网络时取消全连接层、池化层或使用1×1卷积[38]等方式降低参数量,减少特征数量[39],使得神经网络提升网络性能,容易训练。2.2.2激活函数神经网络中的每个神经元节点,输入的值经过加权,传递给下一层,求和后被应用于一个函数。在深层神经网络中,激活函数是将上层节点的输出和下层节点的输入之间关联起来。激活函数的好处就是给卷积神经网络强大的计算能力引入了非线性特性,使得深层神经网络的表达能力更加强大。卷积神经网络中有很多经典的函数,主要介绍以下四种常见的激活函数。(1)Sigmoid函数Sigm
【参考文献】:
期刊论文
[1]利用层级交互注意力的文本摘要方法[J]. 黄于欣,余正涛,相艳,高盛祥,郭军军. 计算机科学与探索. 2020(10)
本文编号:3615370
【文章来源】:西安邮电大学陕西省
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
卷积神经网络的典型结构
西安邮电大学硕士学位论文102.2.1网络结构CNN是一种多层次神经网络,其主要由卷积层、池化层和全连接层排列组合构成。卷积神经网络进行特征提取的核心模块是隐藏层的卷积层和池化层。此模型利用梯度下降法使网络的目标函数损失最小化,从而逐层反向调节网络中的权重参数。卷积层和子采样层提取到的图像特征在池化层之后是第一个全连接层。网络模型最后的输出层是一个分类器,可以采用逻辑回归和支持向量机[36]对输入图像进行分类。网络结构如下图2.1所示:图2.1卷积神经网络的典型结构卷积层:通过卷积运算可以提取出图像的特征,将卷积核提取的特征进行叠加形成特征图输入到下层。常用的二维卷积操作如图2.2所示:图2.2步长为1的二维卷积卷积层输出的图像尺寸一般小于或等于输入层的尺寸,卷积层的输入输出图像大小的关系如下公式表示:
为卷积步长,P为padding填充的像素值(P=1表示在卷积区域外进行1层填充)。池化层:对图像进行下采样,可以减少数据处理量的同时保留有用的信息,但在采样的时候图像特征的具体位置会混乱,原因是特征的位置在特征被遍历出来后,就变得不重要了,只要有这个特征和其它特征的相对位置,就能够应对同类物体在形变和扭曲后的变化。常用的方法有两种,一种是最大值池化(max-pooling),对领域内特征点取最大值,作用是保留图像背景;另一种是平均值池化(mean-pooling),对领域内特征点求平均值,作用是保留图像的纹理信息。如图2.3所示:图2.3最大池化和平均池化示例全连接层:利用softmax全连接,提取到的图像特征。在整个CNN中起到分类器的作用。本质是将一个特征空间线性变换到另一个特征空间。近年来学者们对CNN做出了许多优化改良,从2012年AlexNet被提出之后,引爆了神经网络的应用热潮。再到后来设计出了深层的深度卷积网络VGGNet,构建密集的块结构的GoogleNet,防止梯度消失的残差卷积神经网络ResNet[37]。虽然提升网络性能最直接的办法就是增加网络深度和宽度,但会产生巨量的参数,容易导致过拟合、梯度消失等问题。因此设计网络时取消全连接层、池化层或使用1×1卷积[38]等方式降低参数量,减少特征数量[39],使得神经网络提升网络性能,容易训练。2.2.2激活函数神经网络中的每个神经元节点,输入的值经过加权,传递给下一层,求和后被应用于一个函数。在深层神经网络中,激活函数是将上层节点的输出和下层节点的输入之间关联起来。激活函数的好处就是给卷积神经网络强大的计算能力引入了非线性特性,使得深层神经网络的表达能力更加强大。卷积神经网络中有很多经典的函数,主要介绍以下四种常见的激活函数。(1)Sigmoid函数Sigm
【参考文献】:
期刊论文
[1]利用层级交互注意力的文本摘要方法[J]. 黄于欣,余正涛,相艳,高盛祥,郭军军. 计算机科学与探索. 2020(10)
本文编号:3615370
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3615370.html
最近更新
教材专著