基于生成对抗网络的异常检测方法的研究
发布时间:2021-11-20 12:21
异常检测,顾名思义,是对与预期模式不相匹配的数据、事件或观测值的识别。作为计算机视觉领域中热门的研究方向,异常检测在许多领域具有良好的应用前景。例如与网络安全相关的信息传输检测、与制造业相关的材料纹理检测、以及在医学领域的医学影像检测等等。然而,受制于数据标记耗时耗力以及数据不均衡等问题,基于监督学习的异常检测模型在某些方面难以达到预定期望。为了解决上述问题,本文将介绍一种新的结合一分类思想的无监督学习模型,即基于生成对抗网络的异常检测模型。该模型通过对单一类数据进行无监督学习来识别相关异常,无需对数据详细标注,避免了数据不均衡的问题。并利用生成对抗网络强大的拟合能力重构数据,进而通过比较重构数据与测试数据间的距离来区分异常的图像或音频。总之,本文主要研究内容如下:1.通过引入Ano GAN模型,详细介绍了基于生成对抗网络的异常检测方法的原理。并指出该模型存在的问题,进而在此基础上介绍了编码器与生成对抗网络相结合的两个模型Efficient-GAN与GANomaly。除此之外,还通过上述模型的实验结果对比,提出了在不同图像复杂度下异常评分设计应该不一致的观点,并在之后的实验中验证了上述...
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
异常模型
的神经网络,本节将主要介绍三种常用于异常检测的相关自编码器网络。2.2.1自编码器网络及原理自编码器是一种较为基础的神经网络,该网络通过编码这一过程学习得到较小维度的数据特征,并通过解码过程重构所需数据。即输入一个高维向量,并期望输出相同尺寸的向量。换句话说,自动编码器的整个过程就是重构输入数据。由于存在编码这一过程,自编码器也常常作为一种数据的压缩或降维方法,与线性的主成分分析(PrincipalComponentsAnalysis,PCA)[38]这类降维方法相比,非线性降维效果更有优势。同理也可用于特征提龋图2.1自编码器流程图Fig2.1Flow-chartofautoencoder图2.1展示了自编码器的基本流程。流程的主体是自编码器的两个子网络:编码器(Encoder)与解码器(Decoder)。编码器和解码器的结构并非固定,通常使用多层全连接层相互连接而成。输入数据X经过编码器降维得到低维特征编码Z,低维特征编码再通过解码器解码得到与输入数据相同尺寸的重构数据X′。通过合适的约束条件/损失函数来训练编码器和解码器的相关参数,从而拉近输入数据与重构数据间的距离,最小化二者之间的差异。一般情况下,自编码器使用均方误差(MeanSquaredError,MSE)作为网络的损失函数:LMSE=1NNi=1(xix′i)2(2.1)其中N为输入数据数量,xi∈X为单个输入数据,x′∈X′为单个输入相对应的重构数据。模型训练时利用MSE可以拉近输入数据与重构数据间的欧式距离,使得重构出的新数据与原始输入数据尽量相似。7
合肥工业大学学术硕士研究生学位论文正是由于自编码器可以对输入数据进行重构,自编码器也被应用于时序异常检测这类问题中。在训练网络模型时,利用自编码器将从传感器得到的正常数据进行压缩,将高维数据映射到低维空间,在降维过程中网络会学习到正常数据中不同变量间的相互联系。之后再将隐变量重构得到预测的重构数据。验证时,由于异常数据属于突变行为,自编码器重构得到的数据就会与输入数据差距过大,从而判定为异常。2.2.2变分自编码器网络及原理在上一小节中,我们简单的介绍了自编码器的基本原理与构造,介绍了隐变量与输入数据之间的联系。但是自编码器本身存在这一些不足:1)由于自编码器本身是一种有损的数据压缩算法,在进行降维时得到的隐变量并不一定合适,进而在数据重构时不会得到效果最佳的重构数据。2)由于输入数据是离散的,导致隐变量间也是离散的。当从连续分布中提取连续的向量作为隐变量输入到解码器中时,得到的重构数据可能并不具有连续性。为了改进上述模型的缺点与不足,变分自编码器VAE应运而生。VAE是由Kingma等人于2014年提出的基于变分贝叶斯(VariationalBayes,VB)推断的生成式网络结构。VAE的主体结构与AE差别不大,但是与标准自编码器通过数值的方式描述隐空间不同,它以概率分布的方式描述隐空间的变量。图2.2VAE原理图Fig2.2TheschematicofVAE根据图2.2,我们可以简单描述VAE的流程:1)输入图像经过编码器降维,输出一组可以描述隐空间中某个正太分布的参数:均值和方差。2)从这组正态分布中进行随机采样。3)采样点经过解码器映射重构为原始图像。以上三步便是VAE的主8
本文编号:3507313
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
异常模型
的神经网络,本节将主要介绍三种常用于异常检测的相关自编码器网络。2.2.1自编码器网络及原理自编码器是一种较为基础的神经网络,该网络通过编码这一过程学习得到较小维度的数据特征,并通过解码过程重构所需数据。即输入一个高维向量,并期望输出相同尺寸的向量。换句话说,自动编码器的整个过程就是重构输入数据。由于存在编码这一过程,自编码器也常常作为一种数据的压缩或降维方法,与线性的主成分分析(PrincipalComponentsAnalysis,PCA)[38]这类降维方法相比,非线性降维效果更有优势。同理也可用于特征提龋图2.1自编码器流程图Fig2.1Flow-chartofautoencoder图2.1展示了自编码器的基本流程。流程的主体是自编码器的两个子网络:编码器(Encoder)与解码器(Decoder)。编码器和解码器的结构并非固定,通常使用多层全连接层相互连接而成。输入数据X经过编码器降维得到低维特征编码Z,低维特征编码再通过解码器解码得到与输入数据相同尺寸的重构数据X′。通过合适的约束条件/损失函数来训练编码器和解码器的相关参数,从而拉近输入数据与重构数据间的距离,最小化二者之间的差异。一般情况下,自编码器使用均方误差(MeanSquaredError,MSE)作为网络的损失函数:LMSE=1NNi=1(xix′i)2(2.1)其中N为输入数据数量,xi∈X为单个输入数据,x′∈X′为单个输入相对应的重构数据。模型训练时利用MSE可以拉近输入数据与重构数据间的欧式距离,使得重构出的新数据与原始输入数据尽量相似。7
合肥工业大学学术硕士研究生学位论文正是由于自编码器可以对输入数据进行重构,自编码器也被应用于时序异常检测这类问题中。在训练网络模型时,利用自编码器将从传感器得到的正常数据进行压缩,将高维数据映射到低维空间,在降维过程中网络会学习到正常数据中不同变量间的相互联系。之后再将隐变量重构得到预测的重构数据。验证时,由于异常数据属于突变行为,自编码器重构得到的数据就会与输入数据差距过大,从而判定为异常。2.2.2变分自编码器网络及原理在上一小节中,我们简单的介绍了自编码器的基本原理与构造,介绍了隐变量与输入数据之间的联系。但是自编码器本身存在这一些不足:1)由于自编码器本身是一种有损的数据压缩算法,在进行降维时得到的隐变量并不一定合适,进而在数据重构时不会得到效果最佳的重构数据。2)由于输入数据是离散的,导致隐变量间也是离散的。当从连续分布中提取连续的向量作为隐变量输入到解码器中时,得到的重构数据可能并不具有连续性。为了改进上述模型的缺点与不足,变分自编码器VAE应运而生。VAE是由Kingma等人于2014年提出的基于变分贝叶斯(VariationalBayes,VB)推断的生成式网络结构。VAE的主体结构与AE差别不大,但是与标准自编码器通过数值的方式描述隐空间不同,它以概率分布的方式描述隐空间的变量。图2.2VAE原理图Fig2.2TheschematicofVAE根据图2.2,我们可以简单描述VAE的流程:1)输入图像经过编码器降维,输出一组可以描述隐空间中某个正太分布的参数:均值和方差。2)从这组正态分布中进行随机采样。3)采样点经过解码器映射重构为原始图像。以上三步便是VAE的主8
本文编号:3507313
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3507313.html
最近更新
教材专著