基于多尺度特征融合卷积神经网络的宫颈癌细胞检测与识别
发布时间:2020-04-25 04:16
【摘要】:随着医学影像处理和模式识别技术的不断发展,基于数字图像处理的宫颈癌细胞检测技术应运而生。该技术有望代替传统的人工筛查方法,解决人工筛查方法中工作量大、成本高、可靠性与准确性受医师专业水平和主观情绪的影响等问题。由于该技术目前正处于起步阶段,检测的智能化程度和准确性还不是很高。针对现有的问题,本文在当前研究基础之上,对宫颈癌细胞检测进行了更深入的研究。首先,本文对宫颈细胞图像进行自动采集,使用提出的最大多向梯度累加清晰度评价算法和二分步长爬山搜索算法实现图像自动聚焦。其次,针对依靠细胞精确分割以及人工选择算子进行特征提取再分类的传统分类方法的局限性,本文通过自适应阈值算法和形态学检测后,对采集到的细胞图像进行剪裁,把剪裁后的图片直接送入改进的深度卷积神经网络模型进行训练从而完成识别。该模型使用连续多个较小卷积核的卷积层代替一个较大卷积核的卷积层,既减少了网络参数又增加了网络的非线性,同时在网络模型中加入批标准化、Dropout等优化方法。针对现有数据集样本数量不足导致网络模型不能有效学习的问题,本文提出了一种小样本数据增强的方法。为了进一步提升网络的分类能力,本文对网络模型进行改进,提出了一种改进的多尺度特征融合的卷积神经网络模型,该模型融合了不同大小卷积核卷积层的特征图,在保证网络深度的同时平衡了网络的宽度。实验结果表明,本文提出的图像清晰度算法效果优于其他传统算法,改进后的爬山搜索算法可以有效减少聚焦点的搜索时间,提出的基于小样本数据增强的多尺度特征融合卷积神经网络模型分类准确率高,并具有较好的敏感性与特异性。
【图文】:
(a) tanh 激活函数 (b) Sigmoid 激活函数 (c) ReLU 激活函数图 2-6 各激活函数图像示意图Figure.2-6 Schematic diagram of each activation function imageReLU 函数保留了 step 函数的生物学启发(只有输入超出阈值时神经元才激活),不过当输入为正的时候导数不为零,从而允许基于梯度的学习(尽管在x=0 的时候,导数是未定义的)。相比 Sigmoid 激活函数和 tanh 激活函数,使用ReLU 激活函数能使计算变得很快,因为无论是函数还是其导数都不包含复杂的数学运算。2.2.3 卷积神经网络优化方法1. 批标准化批标准化(Batch Normalization,BN)是一种解决深度神经网络没办法有效前向传递的方法。为了更有效地学习数据,对数据进行特征标准化预处理。BN 把每层输出的值都看成后面一层所接收的数据,对每层都进行一次批标准化。没有标准化的数据使用 tanh 激活以后,激活值大部分都分布到了饱和阶段,也就是大部分的激活值不是-1 就是 1,而批标准化后,大部分的激活值在每个
( ),ii iy x BN xγ β← γ + β≡ 示一个 batch 中的第 i 个数据,βμ 表示 batch 中的均值,,2βσ , ix 表示经过标准化后的数据,iy 表示反标准化后的输出展参数和平移参数。Dropout神经网络在训练时可能会出现过拟合问题,即网络对于训练,但对于测试集效果却很差。为了应对过拟合问题,Hintonropout 的概念。其核心就是在深度神经网络的训练中,将神定的概率做暂时性的剔除。如图 2-7 所示,该网络具有 n 个pout 之后可看做是2n个网络模型的集合,但此时需要训练的变化。
【学位授予单位】:哈尔滨理工大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:R737.33;TP391.41;TP183
【图文】:
(a) tanh 激活函数 (b) Sigmoid 激活函数 (c) ReLU 激活函数图 2-6 各激活函数图像示意图Figure.2-6 Schematic diagram of each activation function imageReLU 函数保留了 step 函数的生物学启发(只有输入超出阈值时神经元才激活),不过当输入为正的时候导数不为零,从而允许基于梯度的学习(尽管在x=0 的时候,导数是未定义的)。相比 Sigmoid 激活函数和 tanh 激活函数,使用ReLU 激活函数能使计算变得很快,因为无论是函数还是其导数都不包含复杂的数学运算。2.2.3 卷积神经网络优化方法1. 批标准化批标准化(Batch Normalization,BN)是一种解决深度神经网络没办法有效前向传递的方法。为了更有效地学习数据,对数据进行特征标准化预处理。BN 把每层输出的值都看成后面一层所接收的数据,对每层都进行一次批标准化。没有标准化的数据使用 tanh 激活以后,激活值大部分都分布到了饱和阶段,也就是大部分的激活值不是-1 就是 1,而批标准化后,大部分的激活值在每个
( ),ii iy x BN xγ β← γ + β≡ 示一个 batch 中的第 i 个数据,βμ 表示 batch 中的均值,,2βσ , ix 表示经过标准化后的数据,iy 表示反标准化后的输出展参数和平移参数。Dropout神经网络在训练时可能会出现过拟合问题,即网络对于训练,但对于测试集效果却很差。为了应对过拟合问题,Hintonropout 的概念。其核心就是在深度神经网络的训练中,将神定的概率做暂时性的剔除。如图 2-7 所示,该网络具有 n 个pout 之后可看做是2n个网络模型的集合,但此时需要训练的变化。
【学位授予单位】:哈尔滨理工大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:R737.33;TP391.41;TP183
【相似文献】
相关期刊论文 前10条
1 胡悦;;金融市场中的神经网络拐点预测法[J];金融经济;2017年18期
2 陈晓燕;;浅析简单神经网络的发展及简单模型[J];数字技术与应用;2019年05期
3 迟惠生;陈珂;;1995年世界神经网络大会述评[J];国际学术动态;1996年01期
4 吴立可;;脉冲神经网络和行为识别[J];通讯世界;2018年12期
5 林嘉应;郑柏伦;刘捷;;基于卷积神经网络的船舶分类模型[J];信息技术与信息化;2019年02期
6 俞颂华;;卷积神经网络的发展与应用综述[J];信息通信;2019年02期
7 韩真;凯文·哈特尼特;;为神经网络的通用理论建造基石[J];世界科学;2019年04期
8 鲍伟强;陈娟;熊涛;;基于进化神经网络的短期电力负荷预测研究[J];电工技术;2019年11期
9 王丽华;杨秀萍;王皓;高峥翔;;智能双轮平衡车的设计研究[J];数字技术与应用;2018年04期
10 张庭略;;基于硬件的神经网络加速[J];通讯世界;2018年08期
相关会议论文 前10条
1 孙军田;张U
本文编号:2639793
本文链接:https://www.wllwen.com/yixuelunwen/fuchankeerkelunwen/2639793.html
最近更新
教材专著