深度学习在宫颈癌图像识别中的应用研究
发布时间:2021-09-02 22:52
宫颈癌作为最常见的妇科恶性肿瘤,严重影响着广大女性的健康。传统的诊断方法是医生通过对患者的宫颈细胞涂片、局部CT、病灶区MRI等影像资料的分析,结合临床表现进行分析判断。然而,这种方法容易受到医生的临床经验、人为主观判断的影响,从而导致误诊或漏诊的情况。近年来,随着人工智能的飞速发展,新兴的疾病辅助诊断应用已成为研究热点之一。基于人工智能的疾病辅助诊断主要分为基于机器学习的临床数据检测方法和基于深度学习的图像检测方法,这种新兴的辅助诊断方法在医学领域的应用日渐成熟,比如食道癌临床特征的检测、脑肿瘤图像的检测等。但是,基于人工智能的方法在宫颈癌检测方面的研究比较少,并且仍面临着许多的困难与挑战。首先,目前还没有用于宫颈癌类别检测的MRI标准数据集,特征明显且分类准确的数据集不仅能够增强模型的预测能力,而且可以提高训练时的收敛性;其次,细胞涂片或CT图像具有单一性,同一类别的图像数据在经过训练后提取到的特征信息相差较大,难以发挥模型的最佳性能;第三,真实有效的宫颈癌样本数量十分有限,并且还存在严重的数据类别分布不平衡问题。本文在对宫颈癌病理类型检测的研究基础上,对来自于四川省某三甲医院的临...
【文章来源】:西华师范大学四川省
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
生成对抗网络[64]
第2章相关理论基础14和,再持续增加深度时则图2-2不同卷积网络的参数配置Fig.2-2Theparameterconfigurationofdifferentconvolutionalnetworks会导致准确率下降。如果持续加深网络,那么误差会越来越大,容易影响模型的整体效果,而也没方法寻找到一个最佳深度网络模型。残差网络的出现,即是一种能够找到最优深度网络配置的方法。另一方面,ResNet的出现也借鉴了以往经典神经网络模型的经验,如图2-3所示。在VGG中,网络的层数达到了19层,而在GoogLeNet中,则达到了史无前例的22层,当时研究者主要关心的问题即是模型的准确度是否会随着网络层数的加深而增多。当神经网络进入了深度层面的考虑之后,资源消耗、模型过拟合和梯度消失(梯度爆炸)成为了最常见的讨论话题。那么对于资源消耗问题,可以在不考虑时间复杂度和空间复杂度的情况下使用GPU集群来解决。通过收集大量有效数据,并搭配使用Dropout正则化规则等方法可以有效的避免模型过拟合的发生。
没岷陀涤?6层的VGG网络的效果相同。所以,我们可以在拥有100层的VGG网络中的第98层和第14层之间添加一条直接映射(IdentityMapping)来达到此效果。如果从信息论的角度讲,由于数据处理不等式的存在,在前向传输的过程中,随着层数的加深,特征映射关系中包含的图像信息会逐层减少,而直接映射的加入,保证了l+1层的网络一定比l层包含更多的图像信息。而这种直接映射的这种思想则是残差网络的核心观念。2.4.2残差学习模块和应用残差网络中提出一种全新的隐层间连接方式,即快捷连接(shortcutconnection),其部分结构如图2-4所示,其中包含了两种映射关系,一种是恒等映射(identitymapping),指的是图中的弯曲线;另一种则是残差映射(residualmapping),指的是除了弯曲线之外的部分。当网络已经达到最优配置时,若继续加深网络,则残差映射将会被置为0,这时就只剩下恒等映射关图2-4残差学习模块Fig.2-4Theresiduallearningmodule系,在理论情况下网络将会一直处于最优状态,网络的性能也就不会随着深度的加深而降低了。若将输入设为x,将带数的参网络层设为H,那么以x为输入的隐层的输出将为H(x)。传统的卷积神经网络会直接通过模型训练来学习出函数H的表达,从而直接学习x->H(x),而残差学习则是使用多个带参数的网络来学习输入、输出之间的残差,即学习X→(H(x)+x)。其中的X这一部分代表了上述恒等映射关系。残差学习模块表示为:x=x+F(x,W)(27)通常情况下,残差网络是由不止一个残差学习模块组成。上式中x是恒等映射部分,
本文编号:3379878
【文章来源】:西华师范大学四川省
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
生成对抗网络[64]
第2章相关理论基础14和,再持续增加深度时则图2-2不同卷积网络的参数配置Fig.2-2Theparameterconfigurationofdifferentconvolutionalnetworks会导致准确率下降。如果持续加深网络,那么误差会越来越大,容易影响模型的整体效果,而也没方法寻找到一个最佳深度网络模型。残差网络的出现,即是一种能够找到最优深度网络配置的方法。另一方面,ResNet的出现也借鉴了以往经典神经网络模型的经验,如图2-3所示。在VGG中,网络的层数达到了19层,而在GoogLeNet中,则达到了史无前例的22层,当时研究者主要关心的问题即是模型的准确度是否会随着网络层数的加深而增多。当神经网络进入了深度层面的考虑之后,资源消耗、模型过拟合和梯度消失(梯度爆炸)成为了最常见的讨论话题。那么对于资源消耗问题,可以在不考虑时间复杂度和空间复杂度的情况下使用GPU集群来解决。通过收集大量有效数据,并搭配使用Dropout正则化规则等方法可以有效的避免模型过拟合的发生。
没岷陀涤?6层的VGG网络的效果相同。所以,我们可以在拥有100层的VGG网络中的第98层和第14层之间添加一条直接映射(IdentityMapping)来达到此效果。如果从信息论的角度讲,由于数据处理不等式的存在,在前向传输的过程中,随着层数的加深,特征映射关系中包含的图像信息会逐层减少,而直接映射的加入,保证了l+1层的网络一定比l层包含更多的图像信息。而这种直接映射的这种思想则是残差网络的核心观念。2.4.2残差学习模块和应用残差网络中提出一种全新的隐层间连接方式,即快捷连接(shortcutconnection),其部分结构如图2-4所示,其中包含了两种映射关系,一种是恒等映射(identitymapping),指的是图中的弯曲线;另一种则是残差映射(residualmapping),指的是除了弯曲线之外的部分。当网络已经达到最优配置时,若继续加深网络,则残差映射将会被置为0,这时就只剩下恒等映射关图2-4残差学习模块Fig.2-4Theresiduallearningmodule系,在理论情况下网络将会一直处于最优状态,网络的性能也就不会随着深度的加深而降低了。若将输入设为x,将带数的参网络层设为H,那么以x为输入的隐层的输出将为H(x)。传统的卷积神经网络会直接通过模型训练来学习出函数H的表达,从而直接学习x->H(x),而残差学习则是使用多个带参数的网络来学习输入、输出之间的残差,即学习X→(H(x)+x)。其中的X这一部分代表了上述恒等映射关系。残差学习模块表示为:x=x+F(x,W)(27)通常情况下,残差网络是由不止一个残差学习模块组成。上式中x是恒等映射部分,
本文编号:3379878
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3379878.html