基于骨髓细胞图像的AML辅助诊断方法研究
发布时间:2021-03-26 22:56
白血病是十大恶性肿瘤疾病之一,在各类白血病中发病率最高且死亡率偏高的是急性髓系白血病(acute myeloid leukemia,AML)。AML起源于骨髓,骨髓是人体重要的造血器官,其造血功能对于维持生命至关重要,检查骨髓细胞形态以及数量分析有助于AML的诊断和鉴别。传统的人工镜检方法耗时较长严重耽误治疗时间,而且结果极易受到个人专业程度和主观性的影响。使用计算机图像分析与人工智能技术能够对骨髓显微图像进行细胞的分割、检测识别以及计数,实现规范化、标准化的骨髓细胞图像数字病理辅助诊断,克服只依赖人工镜检方法而存在的问题,对于提高AML临床诊断的水平和效率具有重大意义。目前,要实现AML的数字化辅助诊断,需要解决对骨髓细胞图像中的细胞定位识别并计数的关键性技术,主要存在以下问题:1)骨髓细胞图像的背景区域比较复杂,使得个体细胞的分割与检测变得困难;2)骨髓显微图像中的骨髓细胞种类繁杂,各类细胞形状各异但又存在相似性,类别区分困难。本文围绕基于骨髓细胞图像的AML辅助诊断方法,主要做了如下工作:(1)提出一种基于形态特征的个体细胞检测方法。采用K-means聚类与区域连通性分析对细胞核...
【文章来源】:济南大学山东省
【文章页数】:71 页
【学位级别】:硕士
【部分图文】:
各类细胞图例各类骨髓细胞的核形、外形、核染色质、细胞质及直径范围的病理特征[1][11]总结如表所示:
济南大学硕士学位论文92.2卷积神经网络卷积神经网络(CNN)是具有多层级的前馈神经网络[32],它包含卷积计算,且具备权值共享的特点。它在目标检测、图像分类以及语义分割等领域取得了不少的成功[33]。CNN一般由输入层、卷积层和池化层、全连接层和输出层组成[34][35]。CNN的核心是卷积层中的卷积计算[32],卷积是数学中的加权累积操作,使用大小不同的卷积核进行计算随之得到大小不同的特征图,所以想要增加特征维度,需要使用大小不一的多个卷积核。卷积层输出表示为:y()kkfxwb(2.1)其中,*表示卷积计算,x表示输入,yk表示输出,kw表示卷积核的权值,b表示偏移量,f()表示激活函数。2.2.1激活函数分析激活函数是非线性函数,卷积进行的是线性操作,只有线性组合的特征在深层网络中表达能力受限,经过激活函数的非线性操作,使得网络具有非线性特性,且能学习到更加复杂的特征,解决了线性不可分的问题,提高了神经网络的鲁棒性。常用的激活函数包括Sigmoid函数[36]、tanh函数[37]、ReLu函数[38]和LeakyReLu函数[39]:(1)Sigmoid函数也叫Logistic函数,表达式如下:1()1ZfZe(2.2)其函数形状如图2.2所示,其输出结果取值范围为[0,1]。图2.2Sigmoid函数图Sigmoid函数具有连续和单调性,且计算简单,所以应用很广泛,常用于二分类的输出层。但是也存在劣势,容易“梯度饱和”,当函数输入取正无穷或负无穷时,梯度
基于骨髓细胞图像的AML辅助诊断方法研究10逐渐趋近于0,会出现梯度弥散的情况,使得某些层的权值更新受阻,影响收敛速度。(2)Tanh函数双曲函数中的一个,是改进的Sigmoid函数,表达式如下:()ZZZZeefZee(2.3)其函数形状如图2.3所示,其输出结果取值范围为[-1,1],具有连续和单调性。由于它的均值为0,使其具有数据中心化,加速了网络训练时的速度,然而“梯度饱和”现象依旧存在。图2.3Tanh函数图(3)ReLu函数目前应用最广泛的激活函数,表达式如下:f(Z)max(0,Z)(2.4)其函数形状如图2.4所示,其输出结果取值范围为(0,)。ReLu函数与前面所提到的Sigmoid函数和Tanh函数不同之处在于其为非“饱和”线性函数。具有单边抑制的特性,当函数的输入值为负时,输出值为0,当函数的输入值为正时,输出值等于输入值,其计算速度更快且避免了梯度弥散的问题。基于以上优势,使得ReLu函数成为了构建CNN更快更有效的首选组成之一。图2.4ReLu函数图
本文编号:3102384
【文章来源】:济南大学山东省
【文章页数】:71 页
【学位级别】:硕士
【部分图文】:
各类细胞图例各类骨髓细胞的核形、外形、核染色质、细胞质及直径范围的病理特征[1][11]总结如表所示:
济南大学硕士学位论文92.2卷积神经网络卷积神经网络(CNN)是具有多层级的前馈神经网络[32],它包含卷积计算,且具备权值共享的特点。它在目标检测、图像分类以及语义分割等领域取得了不少的成功[33]。CNN一般由输入层、卷积层和池化层、全连接层和输出层组成[34][35]。CNN的核心是卷积层中的卷积计算[32],卷积是数学中的加权累积操作,使用大小不同的卷积核进行计算随之得到大小不同的特征图,所以想要增加特征维度,需要使用大小不一的多个卷积核。卷积层输出表示为:y()kkfxwb(2.1)其中,*表示卷积计算,x表示输入,yk表示输出,kw表示卷积核的权值,b表示偏移量,f()表示激活函数。2.2.1激活函数分析激活函数是非线性函数,卷积进行的是线性操作,只有线性组合的特征在深层网络中表达能力受限,经过激活函数的非线性操作,使得网络具有非线性特性,且能学习到更加复杂的特征,解决了线性不可分的问题,提高了神经网络的鲁棒性。常用的激活函数包括Sigmoid函数[36]、tanh函数[37]、ReLu函数[38]和LeakyReLu函数[39]:(1)Sigmoid函数也叫Logistic函数,表达式如下:1()1ZfZe(2.2)其函数形状如图2.2所示,其输出结果取值范围为[0,1]。图2.2Sigmoid函数图Sigmoid函数具有连续和单调性,且计算简单,所以应用很广泛,常用于二分类的输出层。但是也存在劣势,容易“梯度饱和”,当函数输入取正无穷或负无穷时,梯度
基于骨髓细胞图像的AML辅助诊断方法研究10逐渐趋近于0,会出现梯度弥散的情况,使得某些层的权值更新受阻,影响收敛速度。(2)Tanh函数双曲函数中的一个,是改进的Sigmoid函数,表达式如下:()ZZZZeefZee(2.3)其函数形状如图2.3所示,其输出结果取值范围为[-1,1],具有连续和单调性。由于它的均值为0,使其具有数据中心化,加速了网络训练时的速度,然而“梯度饱和”现象依旧存在。图2.3Tanh函数图(3)ReLu函数目前应用最广泛的激活函数,表达式如下:f(Z)max(0,Z)(2.4)其函数形状如图2.4所示,其输出结果取值范围为(0,)。ReLu函数与前面所提到的Sigmoid函数和Tanh函数不同之处在于其为非“饱和”线性函数。具有单边抑制的特性,当函数的输入值为负时,输出值为0,当函数的输入值为正时,输出值等于输入值,其计算速度更快且避免了梯度弥散的问题。基于以上优势,使得ReLu函数成为了构建CNN更快更有效的首选组成之一。图2.4ReLu函数图
本文编号:3102384
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3102384.html
最近更新
教材专著