电子显微镜下暗场原子图片的重建和识别
发布时间:2021-01-19 07:32
在材料科学领域,暗场原子图像的成像质量非常重要,是材料科学家作为科研成果的重要可视化依据。当材料科学家需要证明自己所研制的某种材料具有优良的均匀性时,获取这种材料表面的原子的排列和分布就成为了必不可少的条件,而只有足够清晰的暗场原子图像和足够准确的原子中心坐标及半径大小,才能作为材料科学家计算的暗场原子排列及分布充分而有力的证据。近些年来,随着深度学习技术的发展,图像处理和识别技术逐渐应用到越来越多的领域当中,特别是在材料影像、医学图像、卫星地图、安防领域等方面发挥着重要作用。利用扫描透射电子显微镜获取的暗场原子图像由于实验环境、材料质量和系统自身成像质量等问题,难以满足材料科学领域研究学者的科研需求。而传统的图像处理手段无法有效的提高暗场原子图像的信噪比、改善图像质量和对图像内容进行识别分析研究,因此利用深度学习技术对暗场原子图像进行重建和识别成为了解决图像质量问题的新手段。本文主要解决了两方面问题,分别是暗场原子图像重建和识别。一、在重建方面,针对提升暗场原子图像成像质量的问题,本文提出了基于生成式对抗网络的暗场原子图像重建模型,针对生成式对抗网络难训练的问题,首先设计了零中心推土...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:73 页
【学位级别】:硕士
【部分图文】:
图2-2深度信念网络[18]??同受限玻尔兹曼机一样,深度信念网络的每个潜变量都是二值的,而每个可??
3.变分自编码器??介绍变分自编码器(Variationa丨auto-encoder,?VAE)?[19]之前首先对自编码器??进行简要的介绍。自编码器的结构如图2-3所示。通过对输入的x进行编码的到??低维向量的特征z,再利用解码器从z解压重构出;c',使其更接近输入变量;c。自??编码器在编码过程中选择性的抛弃荣誉数据,将尽可能多的有效潜变量包含到编??码中,解码器则需要从这些编码中尽可能的学习重构输入图像。??x'l?x'2?x'3??(旮)-Decoder??眷(I?卜?Encoder??Xl?X2?x3??图2-3自编码器结构图[19]??然而自编码器由于自身将输入转换为编码的过程中表达并不是连续的,因此??除了在降噪这类场景以外,应用并不多。而变分自编码器则不同,它的隐空间被??设计为连续的分布,使他能够进行随机采样和插值,因此在生成模型领域效果卓??著。变分自编码器中编码器输出不再是n维编码潜变量,而是两个n维矢量,一??个是均值矢量//
中———一/??7?9??(|?Z??图2-4简化变分自编码器??如图2-4所示,我们只能观测到数据X,想要推断z就需要计算p(z|x:),利用??分布做近似,其中z服从分布(?〇)利用KL散度计算两个分布的差值公式??如下:??D[Q(z)\\P(z\X)]?=?Ex^[logQdx)-logP(ix\X)]?(2-5)??因此变分自编码器的损失函数写为公式2-6,其中第一部分表示重构损失,??用期望值表达从分布里的采样,第二部分为相对熵,即P〇|;〇与的散度值。??L(0,0;x,z)?=?EP(p(zM[logQe(x\z)]?-?DKL(PHzm\\Q(z))?(2-6)??2.3图像识别理论基础??2.3.1卷积神经网络的发展??LeCun于1998年提出了?LeNet[M]网络,从此推动深度学习领域飞速发展。??LeNet5网络首次实现了卷积神经网络局部连接、下采样、权值共享等特性,在降??低了网络参数量的同时提高了模型的性能
本文编号:2986597
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:73 页
【学位级别】:硕士
【部分图文】:
图2-2深度信念网络[18]??同受限玻尔兹曼机一样,深度信念网络的每个潜变量都是二值的,而每个可??
3.变分自编码器??介绍变分自编码器(Variationa丨auto-encoder,?VAE)?[19]之前首先对自编码器??进行简要的介绍。自编码器的结构如图2-3所示。通过对输入的x进行编码的到??低维向量的特征z,再利用解码器从z解压重构出;c',使其更接近输入变量;c。自??编码器在编码过程中选择性的抛弃荣誉数据,将尽可能多的有效潜变量包含到编??码中,解码器则需要从这些编码中尽可能的学习重构输入图像。??x'l?x'2?x'3??(旮)-Decoder??眷(I?卜?Encoder??Xl?X2?x3??图2-3自编码器结构图[19]??然而自编码器由于自身将输入转换为编码的过程中表达并不是连续的,因此??除了在降噪这类场景以外,应用并不多。而变分自编码器则不同,它的隐空间被??设计为连续的分布,使他能够进行随机采样和插值,因此在生成模型领域效果卓??著。变分自编码器中编码器输出不再是n维编码潜变量,而是两个n维矢量,一??个是均值矢量//
中———一/??7?9??(|?Z??图2-4简化变分自编码器??如图2-4所示,我们只能观测到数据X,想要推断z就需要计算p(z|x:),利用??分布做近似,其中z服从分布(?〇)利用KL散度计算两个分布的差值公式??如下:??D[Q(z)\\P(z\X)]?=?Ex^[logQdx)-logP(ix\X)]?(2-5)??因此变分自编码器的损失函数写为公式2-6,其中第一部分表示重构损失,??用期望值表达从分布里的采样,第二部分为相对熵,即P〇|;〇与的散度值。??L(0,0;x,z)?=?EP(p(zM[logQe(x\z)]?-?DKL(PHzm\\Q(z))?(2-6)??2.3图像识别理论基础??2.3.1卷积神经网络的发展??LeCun于1998年提出了?LeNet[M]网络,从此推动深度学习领域飞速发展。??LeNet5网络首次实现了卷积神经网络局部连接、下采样、权值共享等特性,在降??低了网络参数量的同时提高了模型的性能
本文编号:2986597
本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/2986597.html