基于深度残差网络的低剂量CT图像处理与重建
发布时间:2021-09-24 07:19
X射线计算机断层成像(Computed Tomography,CT)的广泛应用,使低剂量CT成为临床应用研究的主要方向。但是,减少CT中的辐射剂量会显著增加图像中的噪声和伪影,这会明显降低临床放射科医生诊断的准确率。近些年广泛应用的低剂量CT处理方法主要包括投影域前处理技术、迭代重建技术、图像后处理技术和深度学习方法,其主要目标是在低剂量的扫描条件下能够接近甚至达到常规剂量扫描条件下的CT成像质量。常规低剂量CT处理和重建技术存在容易丢失组织细节特征的问题。本论文采用深度学习方法,以卷积神经网络为基础,通过构建和训练深层特征表征网络,对低剂量噪声伪影预测的复杂问题进行非线性建模拟合,目的提高低剂量CT成像质量,降低病人承受的扫描辐射危害,为临床医生的检测诊断提供有效的辅助。本论文分为以下两个部分:本论文中进行了对于使用自适应卷积滤波网络替换滤波反投影重建(Filtered Back Projection,FBP)中的固定滤波核的研究。AF-DenseNet网络使用自适应滤波网络单元替代FBP中的固定滤波核对处理后的投影数据进行滤波,同时在频域和空间域进行卷积处理。在滤除噪声的同时最大限...
【文章来源】:东南大学江苏省 211工程院校 985工程院校 教育部直属院校
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
常规剂量CT扫描与低剂量CT扫描降低放射剂量和得到清晰的高质量图像永远是一对矛盾体,对于特定的扫描条件和检查
CWH的卷积核对尺寸为WHD的输入特征图进行卷积,步长设定为S,经过卷积后的卷积层输出特征图尺寸变化为WHD,其中(2)+1CWWPWS+=,(2)+1CHHPHS+=,D=k。由于卷积层具有权值共享的特性,因此每一个通道的卷积核共享同一个权重参数,n个卷积核每一个卷积核权值参数个数为CCWH,卷积层通常会设置1个偏置项,用来进行常数性的偏置修正,因此n个卷积核共需()1CCkWH+个参数项,相比较于多层感知器等传统深度学习方法的庞大参数量,卷积神经网络节省了大量的参数存储空间,同时也提升了计算速度。图2-1卷积操作示意图2.2批归一化层批归一化(BatchNormalization,BN)层,是Sergeyloffe在2015年提出的,提出后因其高泛用性和优秀的性能提升,受到业界一致好评,被广泛应用到深度网络训练中。BN层可以理解为对于每一个输入卷积层的特征图进行归一化处理,统一化图中的均值和方差,然后使用可训练参数进行修正,使数据和特征具有相似的分布特性,同时还能够解决不同光照、对比度等引起的输入图像数据的像素值偏移问题。BN算法的优势主要有以下几方面:(1)学习率选择较为灵活,网络训练收敛速度很快,对学习率选择的依赖性较小;(2)具有正则化作用,提高模型的泛化能力,添加BN层后可以替代原有的Dropout和L1、L2正则化项;(3)可以消除原有特征图的特定分布模式,有利于后续卷积层对于有效特征的提取,提高网络特征表征能力。BN层的输入特征图为m个通道的集合1...mInput=x,可训练参数为和,输出特
第二章卷积神经网络理论10ReLU函数:f(x)=max(0,x)(2.10)LeakyReLU函数:,0(),0xxfxxx==(2.11)图2-2激活函数示意图从图2-2中可以看出,Sigmoid函数对中央区信息增益较大,对两侧区域信息增益小,容易因输入过大或过小导致饱和,出现梯度弥散或梯度消失的问题,同时其也存在计算量较大、输出值和梯度恒定为正值的缺点。Tanh函数特性与Sigmoid函数相近,拥有优秀的中央区域信息增益,也容易出现饱和现象,输出值可为负值,计算量较Simoid函数而言更大,容易造成较高的计算负担。本论文主要采用ReLU为非线性激活函数,ReLU具有单侧抑制、兴奋边界宽阔、稀疏激活性的特点,更贴近于生物神经元的稀疏激活性,在反向传播时,ReLU的稀疏性使得每次反向传播都会有一部分权重不会被更新,这使得ReLU激活函数具有更低的计算量和更高的计算速度。2.4损失函数损失函数是网络输出的预测值与真实值之间差异的度量,是衡量网络性能的重要依据。网络训练的目的是使得网络输出的预测值与优化目标真实值之间相似度越来越高,体现在损失函数上,就是预测值与真实值之间的损失函数越来越低。因此,如何选择损失函数,如何让损失函数更好代表预测值与真实值之间的差异性,是每一个深度学习任务面临的重要任务。目前在图像处理领域常用的损失函数主要有均方误差损失(MeanSquareError,MSE)、平均绝对值误差损失(MeanAbsoluteError,MAE),均方对数损失(MeanSquaredLogarithmicError,MSLE),其中均方误差损失又称为L2损失,平均绝对值误差损失又称为L1损失。MSE是衡量两张不同图像数据之间差异和变化程度的最常用方法之一,图像客观质量评估中的MSE代表着网络输出图像和参考常规剂量图像之间对应像素差的平方期望值。MSE的值越小,对应
本文编号:3407342
【文章来源】:东南大学江苏省 211工程院校 985工程院校 教育部直属院校
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
常规剂量CT扫描与低剂量CT扫描降低放射剂量和得到清晰的高质量图像永远是一对矛盾体,对于特定的扫描条件和检查
CWH的卷积核对尺寸为WHD的输入特征图进行卷积,步长设定为S,经过卷积后的卷积层输出特征图尺寸变化为WHD,其中(2)+1CWWPWS+=,(2)+1CHHPHS+=,D=k。由于卷积层具有权值共享的特性,因此每一个通道的卷积核共享同一个权重参数,n个卷积核每一个卷积核权值参数个数为CCWH,卷积层通常会设置1个偏置项,用来进行常数性的偏置修正,因此n个卷积核共需()1CCkWH+个参数项,相比较于多层感知器等传统深度学习方法的庞大参数量,卷积神经网络节省了大量的参数存储空间,同时也提升了计算速度。图2-1卷积操作示意图2.2批归一化层批归一化(BatchNormalization,BN)层,是Sergeyloffe在2015年提出的,提出后因其高泛用性和优秀的性能提升,受到业界一致好评,被广泛应用到深度网络训练中。BN层可以理解为对于每一个输入卷积层的特征图进行归一化处理,统一化图中的均值和方差,然后使用可训练参数进行修正,使数据和特征具有相似的分布特性,同时还能够解决不同光照、对比度等引起的输入图像数据的像素值偏移问题。BN算法的优势主要有以下几方面:(1)学习率选择较为灵活,网络训练收敛速度很快,对学习率选择的依赖性较小;(2)具有正则化作用,提高模型的泛化能力,添加BN层后可以替代原有的Dropout和L1、L2正则化项;(3)可以消除原有特征图的特定分布模式,有利于后续卷积层对于有效特征的提取,提高网络特征表征能力。BN层的输入特征图为m个通道的集合1...mInput=x,可训练参数为和,输出特
第二章卷积神经网络理论10ReLU函数:f(x)=max(0,x)(2.10)LeakyReLU函数:,0(),0xxfxxx==(2.11)图2-2激活函数示意图从图2-2中可以看出,Sigmoid函数对中央区信息增益较大,对两侧区域信息增益小,容易因输入过大或过小导致饱和,出现梯度弥散或梯度消失的问题,同时其也存在计算量较大、输出值和梯度恒定为正值的缺点。Tanh函数特性与Sigmoid函数相近,拥有优秀的中央区域信息增益,也容易出现饱和现象,输出值可为负值,计算量较Simoid函数而言更大,容易造成较高的计算负担。本论文主要采用ReLU为非线性激活函数,ReLU具有单侧抑制、兴奋边界宽阔、稀疏激活性的特点,更贴近于生物神经元的稀疏激活性,在反向传播时,ReLU的稀疏性使得每次反向传播都会有一部分权重不会被更新,这使得ReLU激活函数具有更低的计算量和更高的计算速度。2.4损失函数损失函数是网络输出的预测值与真实值之间差异的度量,是衡量网络性能的重要依据。网络训练的目的是使得网络输出的预测值与优化目标真实值之间相似度越来越高,体现在损失函数上,就是预测值与真实值之间的损失函数越来越低。因此,如何选择损失函数,如何让损失函数更好代表预测值与真实值之间的差异性,是每一个深度学习任务面临的重要任务。目前在图像处理领域常用的损失函数主要有均方误差损失(MeanSquareError,MSE)、平均绝对值误差损失(MeanAbsoluteError,MAE),均方对数损失(MeanSquaredLogarithmicError,MSLE),其中均方误差损失又称为L2损失,平均绝对值误差损失又称为L1损失。MSE是衡量两张不同图像数据之间差异和变化程度的最常用方法之一,图像客观质量评估中的MSE代表着网络输出图像和参考常规剂量图像之间对应像素差的平方期望值。MSE的值越小,对应
本文编号:3407342
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3407342.html
最近更新
教材专著