基于深度神经网络的宫颈癌辅助筛查研究
发布时间:2021-11-06 07:06
宫颈癌是最常见的女性恶性肿瘤之一。相关医学研究表明,可以通过早期病变筛查降低宫颈癌发病率和死亡率,因此,癌前病变的筛查成为宫颈癌预防的关键。阴道镜检查是宫颈病变筛查的重要医疗手段之一,由于其便利性和良好的准确性,成为目前世界范围内必不可少的诊断方法。然而,传统的人工阅片方式容易造成病变诊断的漏诊、误诊以及低效等问题,且不同医师的不同临床经验易导致诊断差异性,从而降低筛查的效率。近年来深度学习在医学图像分析领域突飞猛进,在很多相关的图像分类以及图像检测任务中取得了优异的效果。本文在深度神经网络的研究基础上,针对阴道镜图像的宫颈癌前病变分类诊断任务进行了相关的研究,主要的研究内容如下:提出一种应用图像语义分割原理的宫颈病变检测与诊断方法,针对宫颈病变的CIN1+诊断建立了基于U-net的全卷积深度神经网络模型。该模型适当加深了网络深度,以编码器-解码器的形式实现了病灶区域的分割与检测,最后通过分割结果的数字图像后处理进一步实现了病变的判断。测试集的诊断结果表明,该方法可得到同高级医师相当的诊断准确性并大大提升了诊断效率。提出一种基于预训练密集连接网络的宫颈病变图像分类方法,该方法利用迁移学...
【文章来源】:华侨大学福建省
【文章页数】:84 页
【学位级别】:硕士
【部分图文】:
本文的研究技术路线
第2章深度神经网络相关理论概述11成CNN的基本模块,最终由全连接层得到最后的输出结果。以下对每个部分进行详细介绍。2.2.2卷积层卷积层由多个卷积核组成,每层的特征图(Featuremap)由多个卷积核的计算结果组合而成。卷积核是一个权值矩阵(在二维数据中一般为3*3或5*5)[41,49]。图2.2所示为CNN卷积层和池化层结构示意图,其中,以卷积输入层(顶层)、卷积输出层(中间层)和池化输出层(底层)来简易的表示之间的关系。图2.2卷积层以及池化层的结构示意图由图2.2可看出卷积层的神经元通过一组权值被连接到下一层特征图的局部区域,然后通过该局部加权和一个非线性函数即可获得卷积层中每个神经元的输出值,该过程中实现了权值共享,如图2.2所示,同一种颜色的箭头中有权值共享。通过权值共享可以减小模型复杂度,使得网络更易于训练。以图2.2为例,卷积核在上一层的滑动步长为,卷积核大小为1*3。CNN中每一个卷积层的每个输出特征图的大小(即神经元的个数)满足公式(2.2)的关系[50](2.2)
华侨大学硕士学位论文12图2.3Relu函数曲线(a),以及tanh函数曲线(b)其中:表示每一个输入特征图的大小;为卷积核的大小;表示卷积核滑动步长。每个卷积层可训练参数数目满足式(2.3)(2.3)其中:为卷积层输出特征图数;为输入特征图数;表示偏置。在卷积层中每个特征图的输入与输出也都满足神经元输入与输出的关系,如式(2.1)。在得到卷积层输出结果后,为了增加模型的非线性表达能力,一般采用非线性激活函数作为特征的非线性表达方法。激活函数目前一般采用,不饱和非线性函数(non-saturatingnonlinearity)能够解决梯度爆炸或梯度消失问题,同时也能够加快收敛速度[51,52]。在目前的CNN结构中常用的激活函数为Relu函数。Relu函数的计算公式如下[6]max(2.4)图2.3中(a)为Relu函数曲线,(b)为tanh函数曲线。对于Relu而言,如果输入大于0,则输出与输入相等,否则输出为0。从图2.3(a)可以看出,使用Relu函数,输出不会随着输入的逐渐增加而趋于饱和,相对比而言,tanh函数为饱和线性函数,容易造成梯度消失等问题,而且需要进行巨大的计算资源。相关文献[53~55]对CNN结构研究表明,在CNN结构中,深度越深、卷积核个数越多,网络能够表示的特征空间也就越大,网络学习能力也越强,然而也会使网络的计算更复杂,极易出现过拟合的现象。为了减轻过拟合的发生,主流的方法主要从网络结构层面、优化算法以及训练数据层面进行优化。对于实际应用场景,应适当选取网络深度、卷积核个数、卷积核的大小及卷积时滑
本文编号:3479409
【文章来源】:华侨大学福建省
【文章页数】:84 页
【学位级别】:硕士
【部分图文】:
本文的研究技术路线
第2章深度神经网络相关理论概述11成CNN的基本模块,最终由全连接层得到最后的输出结果。以下对每个部分进行详细介绍。2.2.2卷积层卷积层由多个卷积核组成,每层的特征图(Featuremap)由多个卷积核的计算结果组合而成。卷积核是一个权值矩阵(在二维数据中一般为3*3或5*5)[41,49]。图2.2所示为CNN卷积层和池化层结构示意图,其中,以卷积输入层(顶层)、卷积输出层(中间层)和池化输出层(底层)来简易的表示之间的关系。图2.2卷积层以及池化层的结构示意图由图2.2可看出卷积层的神经元通过一组权值被连接到下一层特征图的局部区域,然后通过该局部加权和一个非线性函数即可获得卷积层中每个神经元的输出值,该过程中实现了权值共享,如图2.2所示,同一种颜色的箭头中有权值共享。通过权值共享可以减小模型复杂度,使得网络更易于训练。以图2.2为例,卷积核在上一层的滑动步长为,卷积核大小为1*3。CNN中每一个卷积层的每个输出特征图的大小(即神经元的个数)满足公式(2.2)的关系[50](2.2)
华侨大学硕士学位论文12图2.3Relu函数曲线(a),以及tanh函数曲线(b)其中:表示每一个输入特征图的大小;为卷积核的大小;表示卷积核滑动步长。每个卷积层可训练参数数目满足式(2.3)(2.3)其中:为卷积层输出特征图数;为输入特征图数;表示偏置。在卷积层中每个特征图的输入与输出也都满足神经元输入与输出的关系,如式(2.1)。在得到卷积层输出结果后,为了增加模型的非线性表达能力,一般采用非线性激活函数作为特征的非线性表达方法。激活函数目前一般采用,不饱和非线性函数(non-saturatingnonlinearity)能够解决梯度爆炸或梯度消失问题,同时也能够加快收敛速度[51,52]。在目前的CNN结构中常用的激活函数为Relu函数。Relu函数的计算公式如下[6]max(2.4)图2.3中(a)为Relu函数曲线,(b)为tanh函数曲线。对于Relu而言,如果输入大于0,则输出与输入相等,否则输出为0。从图2.3(a)可以看出,使用Relu函数,输出不会随着输入的逐渐增加而趋于饱和,相对比而言,tanh函数为饱和线性函数,容易造成梯度消失等问题,而且需要进行巨大的计算资源。相关文献[53~55]对CNN结构研究表明,在CNN结构中,深度越深、卷积核个数越多,网络能够表示的特征空间也就越大,网络学习能力也越强,然而也会使网络的计算更复杂,极易出现过拟合的现象。为了减轻过拟合的发生,主流的方法主要从网络结构层面、优化算法以及训练数据层面进行优化。对于实际应用场景,应适当选取网络深度、卷积核个数、卷积核的大小及卷积时滑
本文编号:3479409
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3479409.html