基于深度学习的3D生物医学脑图像配准算法研究
发布时间:2022-02-08 23:55
图像配准在医学图像处理、遥感图像处理等领域发挥着重要作用。通过图像配准可实现不同数据之间的拼接和融合,从而提供更加丰富和直观的图像信息。传统图像配准算法利用图像特征点信息或图像体素灰度值统计信息,通过迭代优化相似性度量函数,求得待配准图像之间相似性最高时的最佳变换矩阵,进而实现配准。该类算法通常迭代速度较慢,无法满足术中配准等实时性需求较高的场景。随着深度学习算法的发展,卷积神经网络在图像分割,目标检测等领域被广泛使用,同时也被引入到图像配准领域,基于深度学习的配准算法不需要迭代,一般速度较快。本文重点研究基于深度学习的医学脑图像配准算法,主要内容如下:(1)本文提出3D U-Net级联空洞卷积子网络的无监督图像配准算法。图像配准需要的是像素点之间精细的空间对应关系,但是U-Net在编码阶段池化下采样操作的存在,带来图像(特征图)空间细节信息的丢失,不利于图像的精细配准。因此本文提出的算法是在3D U-Net网络后面级联一个不包含下采样操作,由连续空洞卷积构成的子网络模块,这样可以实现在保持图像(特征图)原始分辨率,不丢失空间细节信息的情况下,对图像进行精细配准。整个3D U-Net级...
【文章来源】:安徽大学安徽省211工程院校
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
历年深度学习配准算法论文数量Figure1.1Numberofdeeplearningregistrationalgorithmpapersovertheyears
安徽大学硕士学位论文7图1.2典型无监督配准网络结构图Figure1.2Typicalunsupervisedregistrationnetworkstructurediagram(5)弱/半监督配准算法Hu等人没有使用人工生成的矢量位移场作为训练网络的人工标签,而是使用更高层次的对应信息,例如解剖器官的分割标签进行网络训练[35],作者提出的深度学习配准算法是基于组织分割标签驱动的,作者认为解剖学标记更可靠、更实用。Hu等人训练一个实现非刚性的MR-US前列腺图像配准网络。该网络以弱监督方法进行训练,这意味着仅使用相应的解剖分割标签而不是密集的体素级空间对应关系来进行损失计算。网络仅在训练阶段才需要解剖标记以进行损失计算。在推断阶段不需要标签以实现快速配准。其思想是想通过局部组织的配准从而实现整体图像配准。(6)GAN配准算法Goodfellow等人提出了生成对抗网络(GenerativeAdversarialNetworks,GAN)这一新型神经网络[36]。对抗生成网络是由一个生成器和一个鉴别器组成,其中生成器用来生成数据,鉴别器用于识别数据的真实性。训练网络时交替的训练更新生成器和鉴别器的参数,当鉴别器难以将生成器生成的数据与真实数据辨别出来时,网络就训练完成了。基于利用生成对抗网络的配准算法,在生成器中输入参考图像和浮动图像,并尝试生成变换参数,以使鉴别器无法将变换后的浮动图像与参考图像区分开,实现图像配准。根据生成器和鉴别器之间的生存竞争,可以在少量数据上训练网络,网络无法将变换后的浮动图像与参考图像区分开时,网络达到训练平衡。Salehi等人使用T2加权图像训练了CNN,实现胎儿脑MR配准。他们首先通过使用条件GAN将T1映射到T2图像
安徽大学硕士学位论文11Sigmoid非线性激活函数公式如下:xexf11)((2.1)Sigmoid非线性激活函数的特点:将输入变换到0到1之间,输出一个概率值。但是在构建神经网络过程中,一般不会使用该激活函数,而是对网络的输出激活,获得分类概率值。Relu非线性激活函数公式如下:xxf),0max()((2.2)Relu非线性激活函数的特点:将输入进行非线性处理,小于0的值将会输出0,而大于0的值将输出自身的值。其相对于Sigmoid,可以加速随机梯度下降收敛的速度,而且其本身的求导几乎不存在任何计算量。LeakyRelu非线性激活函数公式如下:xxxf),max()((2.3)LeakyRelu给每一个小于0的输入乘上一个非0较小的系数,通过这样的运算,解决了Relu在负数区间导数为0的问题。图2.1激活函数图Figure2.1Activationfunctiondiagram感知机理论上可以实现逻辑上与、或、非运算。其公式为:
本文编号:3615994
【文章来源】:安徽大学安徽省211工程院校
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
历年深度学习配准算法论文数量Figure1.1Numberofdeeplearningregistrationalgorithmpapersovertheyears
安徽大学硕士学位论文7图1.2典型无监督配准网络结构图Figure1.2Typicalunsupervisedregistrationnetworkstructurediagram(5)弱/半监督配准算法Hu等人没有使用人工生成的矢量位移场作为训练网络的人工标签,而是使用更高层次的对应信息,例如解剖器官的分割标签进行网络训练[35],作者提出的深度学习配准算法是基于组织分割标签驱动的,作者认为解剖学标记更可靠、更实用。Hu等人训练一个实现非刚性的MR-US前列腺图像配准网络。该网络以弱监督方法进行训练,这意味着仅使用相应的解剖分割标签而不是密集的体素级空间对应关系来进行损失计算。网络仅在训练阶段才需要解剖标记以进行损失计算。在推断阶段不需要标签以实现快速配准。其思想是想通过局部组织的配准从而实现整体图像配准。(6)GAN配准算法Goodfellow等人提出了生成对抗网络(GenerativeAdversarialNetworks,GAN)这一新型神经网络[36]。对抗生成网络是由一个生成器和一个鉴别器组成,其中生成器用来生成数据,鉴别器用于识别数据的真实性。训练网络时交替的训练更新生成器和鉴别器的参数,当鉴别器难以将生成器生成的数据与真实数据辨别出来时,网络就训练完成了。基于利用生成对抗网络的配准算法,在生成器中输入参考图像和浮动图像,并尝试生成变换参数,以使鉴别器无法将变换后的浮动图像与参考图像区分开,实现图像配准。根据生成器和鉴别器之间的生存竞争,可以在少量数据上训练网络,网络无法将变换后的浮动图像与参考图像区分开时,网络达到训练平衡。Salehi等人使用T2加权图像训练了CNN,实现胎儿脑MR配准。他们首先通过使用条件GAN将T1映射到T2图像
安徽大学硕士学位论文11Sigmoid非线性激活函数公式如下:xexf11)((2.1)Sigmoid非线性激活函数的特点:将输入变换到0到1之间,输出一个概率值。但是在构建神经网络过程中,一般不会使用该激活函数,而是对网络的输出激活,获得分类概率值。Relu非线性激活函数公式如下:xxf),0max()((2.2)Relu非线性激活函数的特点:将输入进行非线性处理,小于0的值将会输出0,而大于0的值将输出自身的值。其相对于Sigmoid,可以加速随机梯度下降收敛的速度,而且其本身的求导几乎不存在任何计算量。LeakyRelu非线性激活函数公式如下:xxxf),max()((2.3)LeakyRelu给每一个小于0的输入乘上一个非0较小的系数,通过这样的运算,解决了Relu在负数区间导数为0的问题。图2.1激活函数图Figure2.1Activationfunctiondiagram感知机理论上可以实现逻辑上与、或、非运算。其公式为:
本文编号:3615994
本文链接:https://www.wllwen.com/yixuelunwen/swyx/3615994.html