可解释的生物图像分析算法研究
发布时间:2021-10-08 21:43
机器学习技术在近年取得了飞速的发展。在各类机器学习算法中,深度学习的表现最为突出,这类算法大幅突破了以往传统机器学习算法的性能瓶颈,在各类任务中达到了似乎于人、甚至超越人类的表现。这使得深度学习算法被大幅应用在各类任务中,这其中就包括了医学影像分析任务。然而,这一性能卓越的算法却有着天然的缺陷,这一缺陷就是它的“黑箱”特性,即算法的使用者无法理解算法内部运行的机制以及算法产生各类响应的原因。这一特性的原因在于深度学习算法中存在巨量的参数,导致问题维度很高并且过于抽象,从而失去了可解释性。因此,基于深度网络的计算机辅助诊断系统在实际应用中遇到了许多困难。现阶段算法大幅度应用的问题症结就在于这些模型本应是可解释的,即模型应为医生提供可以解释其诊断的理由。首先,本文针对可解释性的重要性进行了讨论。从原理和目的出发,对现有针对深度学习的可解释性研究进行了归纳分类,并针对具体应用,结合使用场景,说明了可解释性在生物图像分析算法的实际应用中是极为重要的。其次,本文提出了一个具备视觉上可解释性的深度网络结构,记作VINet,该网络可以在做出准确诊断的同时生成诊断的可视化解释。VINet是一个由重要性...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
可视化解释对医生诊断过程的帮助Fig.1-1Visualinterpretationhelpsadoctortogiveafaithfulfinaldiagnosis
第1章绪论81.2.2.1解释模型本身的可解释性研究作为一种解释深度模型的里程碑方法,反卷积网络[13]最初是为无监督学习任务而设计的,Zeiler等人[12]使用连接到卷积网络上的反卷积网络将中间层的特征激活投影到了输入空间上。更具体地说,为了可视化一个已经训练好的模型来观察这个模型各层各个滤波器到底学习到了什么表征,首先需要做前向传播,然后对前向传播操作中各个滤波器产生的特征图进行重复的反池化,纠正和反卷积,直到特征图和输入图像具有相同的分辨率,从而识别出最能激活某个神经元的模式。在反池化操作中,提出了switches概念,用于记住卷积网络中的最大值池化里最大值的具体位置,方便反池化的时候进行计算。如此,最终得到的重建结果就可以表现出原输入图像中哪个部分能最大程度的引起特定滤波器的激活,其效果如图1-2所示。反卷积方法有一定的局限性:反卷积方法依赖于输入图像,即输入图像必须先进行前向传播。这个局限性导致了各个滤波器的可视化结果并不是真正意义上网络模型学习到的特征,而是依赖于某个输入图像的特定模式。Guidedpropagation[11]对Zeiler[12]的反卷积网络进行了改进。首先使用步幅大于2的卷积核代替了最大值池化层,从而省去了switches结构,如此便使得网络不再依赖于输入数据前向传播来分析各个滤波器学习到的特征。在实验中他们证明了这种代替对于网络性能基本没有影响。除此之外,解释模型的另一种方法是在数据集中找到可以使深度网络中较高层的神经元激活最大化特定的输入图像实例,例如R.图1-2使用反卷积方法对深度网络不同卷积层滤波器可视化的结果Fig.1-2Visualizationresultsofdeconvolutionmethodonfiltersindifferentlayers
第1章绪论9Girshick[16]和D.Erhan[17]的工作。上述算法都着力于提升深度模型的透明度,即着力于可视化深度模型在训练后具体学到的特征。1.2.2.2解释模型决策的可解释性研究另一些算法着力于解释模型的具体决策以提升深度网络的可解释性。Zeiler等人[12]遮挡部分图像后对正确分类的概率做可视化分析。一些研究[18,19]借鉴了该方法来量化每个输入分量对输出的具体影响。通过分析这些预测结果上的差异,可以将每个输入成分的重要性可视化为热力图,其效果如图1-3所示。该方法的主要思想为通过输入对输出的影响程度来对输入中的每一个特征分量进行打分,通过对打分进行可视化,最终针对图片输入形成一张热力图。具体内容如下式所述:()=()(\)(1-8)其中x是输入图像,是输入图像x的第i个分量。除此之外还存在一些基于灵敏度的方法,这些方法使用偏导数来计算输入成分对分类决策的贡献[20,21,22]。类别激活图[23](ClassActivationMap,CAM)和梯度加权类别激活图[24](GradientClassActivationMap,GradCAM)构建特征图的加权和作为可视化结果。这两种方法的根本区别在于权重的获取方式。前者使用全局平均池化直接获得权重,而后者使用梯度作为权重。然而这两种方法都无法产生高分辨率,细粒度的结果。逐层相关性传播[15](Layer-wiserelevancepropagation,LRP)方法在不使用梯度的情况下将深度网络预测结果反向传播至输入控件中。该方法从上到下地计算了预测结果与每个神经元之间的相关性,并依次获得输入图像中每个像素对分类器预测的贡献。Samek等人[25]比较了反卷积方法,基于灵敏度的方法和逐层相关性传播算法,在解释深度网络决策时,逐层相关性传播算法的表现优于其图1-3使用敏感度分析对GoogLeNet的三个不同卷积层特征图的可视化?
本文编号:3425018
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
可视化解释对医生诊断过程的帮助Fig.1-1Visualinterpretationhelpsadoctortogiveafaithfulfinaldiagnosis
第1章绪论81.2.2.1解释模型本身的可解释性研究作为一种解释深度模型的里程碑方法,反卷积网络[13]最初是为无监督学习任务而设计的,Zeiler等人[12]使用连接到卷积网络上的反卷积网络将中间层的特征激活投影到了输入空间上。更具体地说,为了可视化一个已经训练好的模型来观察这个模型各层各个滤波器到底学习到了什么表征,首先需要做前向传播,然后对前向传播操作中各个滤波器产生的特征图进行重复的反池化,纠正和反卷积,直到特征图和输入图像具有相同的分辨率,从而识别出最能激活某个神经元的模式。在反池化操作中,提出了switches概念,用于记住卷积网络中的最大值池化里最大值的具体位置,方便反池化的时候进行计算。如此,最终得到的重建结果就可以表现出原输入图像中哪个部分能最大程度的引起特定滤波器的激活,其效果如图1-2所示。反卷积方法有一定的局限性:反卷积方法依赖于输入图像,即输入图像必须先进行前向传播。这个局限性导致了各个滤波器的可视化结果并不是真正意义上网络模型学习到的特征,而是依赖于某个输入图像的特定模式。Guidedpropagation[11]对Zeiler[12]的反卷积网络进行了改进。首先使用步幅大于2的卷积核代替了最大值池化层,从而省去了switches结构,如此便使得网络不再依赖于输入数据前向传播来分析各个滤波器学习到的特征。在实验中他们证明了这种代替对于网络性能基本没有影响。除此之外,解释模型的另一种方法是在数据集中找到可以使深度网络中较高层的神经元激活最大化特定的输入图像实例,例如R.图1-2使用反卷积方法对深度网络不同卷积层滤波器可视化的结果Fig.1-2Visualizationresultsofdeconvolutionmethodonfiltersindifferentlayers
第1章绪论9Girshick[16]和D.Erhan[17]的工作。上述算法都着力于提升深度模型的透明度,即着力于可视化深度模型在训练后具体学到的特征。1.2.2.2解释模型决策的可解释性研究另一些算法着力于解释模型的具体决策以提升深度网络的可解释性。Zeiler等人[12]遮挡部分图像后对正确分类的概率做可视化分析。一些研究[18,19]借鉴了该方法来量化每个输入分量对输出的具体影响。通过分析这些预测结果上的差异,可以将每个输入成分的重要性可视化为热力图,其效果如图1-3所示。该方法的主要思想为通过输入对输出的影响程度来对输入中的每一个特征分量进行打分,通过对打分进行可视化,最终针对图片输入形成一张热力图。具体内容如下式所述:()=()(\)(1-8)其中x是输入图像,是输入图像x的第i个分量。除此之外还存在一些基于灵敏度的方法,这些方法使用偏导数来计算输入成分对分类决策的贡献[20,21,22]。类别激活图[23](ClassActivationMap,CAM)和梯度加权类别激活图[24](GradientClassActivationMap,GradCAM)构建特征图的加权和作为可视化结果。这两种方法的根本区别在于权重的获取方式。前者使用全局平均池化直接获得权重,而后者使用梯度作为权重。然而这两种方法都无法产生高分辨率,细粒度的结果。逐层相关性传播[15](Layer-wiserelevancepropagation,LRP)方法在不使用梯度的情况下将深度网络预测结果反向传播至输入控件中。该方法从上到下地计算了预测结果与每个神经元之间的相关性,并依次获得输入图像中每个像素对分类器预测的贡献。Samek等人[25]比较了反卷积方法,基于灵敏度的方法和逐层相关性传播算法,在解释深度网络决策时,逐层相关性传播算法的表现优于其图1-3使用敏感度分析对GoogLeNet的三个不同卷积层特征图的可视化?
本文编号:3425018
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3425018.html