基于密集卷积网络的阿尔茨海默症分类研究
发布时间:2020-12-30 22:37
阿尔茨海默症(Alzheimer’s Disease,AD)是一种不可逆的大脑神经退行性疾病。轻度认知障碍(MCI)是一种介于AD和认知正常(CN)之间的症状,其作为AD的早期阶段,对预防和干预病情的发展非常重要。本文对基于密集卷积网络的阿尔茨海默症分类进行研究,分别给出了 AD早期诊断模型和MCI到AD的转化预测模型,并对主动学习算法进行研究,给出一种基于多策略的批量式主动学习算法。本文的主要研究内容如下:1、给出一种基于多尺度特征和序列学习的AD早期诊断模型。针对2D-CNN不能有效获取磁共振成像(MRI)序列信息的问题,且考虑到MRI图像数据集规模较小,给出一种参数量较少的三维轻量密集卷积网络(3D-LDenseNet)作为基础模型;针对3D-LDenseNet只能在固定感受野和局部切片序列内提取图像特征的问题,在模型中引入空洞卷积和卷积长短时记忆网络,以增强模型对于MRI图像的多尺度特征提取能力和序列学习能力。2、给出一种基于注意力机制的MCI到AD的转化预测模型。针对发展型MCI(progressive MCI,pMCI)和稳定型MCI(stable MCI,sMCI)病灶区...
【文章来源】:大连海事大学辽宁省 211工程院校
【文章页数】:77 页
【学位级别】:硕士
【部分图文】:
图2.5最大池化??Fig.?2.5?Max?Pooling??池化层的主要作用是对卷积层输出的特征图进行压缩,降低特征维度,并使其保持???定的空间不变性
?基于密集卷积M络的阿尔茨海默症分类研究???逐一对应。常用的池化方法主要是平均池化和最大池化。如图2.4和图2.5所示,平均??池化是计算滑动窗口内的平均值,最大池化是计算滑动窗口内的最大值。??在CNN结构的最后,通常会放置]个或1个以上的全连接层。全连接层的作用是??通过将本层神经元与前层所有神经元进行连接,从而整合特征图中的局部信息[66]。之后,??全连接层的输出被传递至输出层,根据不同任务采用不同的激活函数,在分类任务中通??常采用Softmax函数。??在CNN中,卷积和池化等操作均属于线性操作,无论经过多少卷积层的计算,网??络的输出仍然是对输入的线性组合。由于线性函数只能对特征进行有限的表达,限制了??模型的学习能力。因此,将非线性函数作为激活函数添加到CNN的网络结构中,从而??增加网络整体的非线性,使得网络可以拟合任意函数,极大地增强了?CNN的学习和表??达能力。由于Sigmoid函数和tanh函数在训练过程中存在梯度消失的问题,导致模型训??练收敛过慢,所以目前常用的激活函数是ReLU函数和由ReLU函数改进而来的函数。??1、ReLU函数??ReLU函数的公式如式2.1所示,函数图和导数图如图2.6所示。??f?(x)?=?max(0,?jc)?(2.1)??ReLU?兩数?ReLU^gt??/I?1?r-^??0.8?■?/?0-8?-??0.6???/?0.6?■??"?/?"??04?.?/?04??0.2?/?0.2??0??^?0????.1?-0.B?-0?6?-0.4?-0.2?0?0?2?0?4?06?08?1?-1?-0?8?
2)???P-ReLU^tt????P-RaLU#?数??t???/?1'????/??0.8?.?X?0.8??/??0.6?06??>?04?.?y?.?>?04?■?|??/??0.2?-?/?0?2????/??〇?0??■0?2?-0?2???1?-08?-06?-0?4?-02?0?02?0?4?06?OB?1?-1?*0.8?-0?6?-0?4?-0?2?0?0.2?0.4?06?OB?1??X?X??图2.7?P-ReLU函数及其导数图??Fig.?2.7?P-ReLU?function?and?derivative?graph??针对ReLU函数会造成神经元死亡的问题,P-ReLU函数_作为ReLU函数的改进??版本,在负半轴增加了一个斜率a,并且a可学习。与ReLU相比,P-ReLU的训练效??果更好,并且收敛速度更快。当a为固定值0.01时,P-ReLU函数就变成了?Leaky?ReLU??函数。??此外,为了更好地训练CNN,优化算法也是必不可少的一部分。使用合适的优化??算法,可以加快模型收敛并正确学习模型参数。常用的优化算法包括随机梯度下降??(Stochastic?Gradient?Descent,SGD)算法[69—7°】、Momentum算法[7l】、AdaGrad?算法[72]、??RMSProp算法丨731和Adam算法丨74丨。??SGD算法是深度学习中最常见和应用最广泛的优化算法,其根据样本生成分布选择??K个独立同分布的小批量样本,并通过计算梯度均值得到梯度的无偏估计。虽然SGD??算法可以利用少量样本计算梯度
【参考文献】:
期刊论文
[1]阿尔茨海默病早期精准诊断现状及展望[J]. 王培军,亓慧慧,王湘彬. 同济大学学报(医学版). 2019(01)
[2]PET显像在阿尔茨海默病的应用进展[J]. 牛娜,李方. 中国现代神经疾病杂志. 2014(03)
硕士论文
[1]基于CNN和GWAS的阿尔茨海默症早期诊断研究[D]. 贾龙飞.广东工业大学 2019
本文编号:2948419
【文章来源】:大连海事大学辽宁省 211工程院校
【文章页数】:77 页
【学位级别】:硕士
【部分图文】:
图2.5最大池化??Fig.?2.5?Max?Pooling??池化层的主要作用是对卷积层输出的特征图进行压缩,降低特征维度,并使其保持???定的空间不变性
?基于密集卷积M络的阿尔茨海默症分类研究???逐一对应。常用的池化方法主要是平均池化和最大池化。如图2.4和图2.5所示,平均??池化是计算滑动窗口内的平均值,最大池化是计算滑动窗口内的最大值。??在CNN结构的最后,通常会放置]个或1个以上的全连接层。全连接层的作用是??通过将本层神经元与前层所有神经元进行连接,从而整合特征图中的局部信息[66]。之后,??全连接层的输出被传递至输出层,根据不同任务采用不同的激活函数,在分类任务中通??常采用Softmax函数。??在CNN中,卷积和池化等操作均属于线性操作,无论经过多少卷积层的计算,网??络的输出仍然是对输入的线性组合。由于线性函数只能对特征进行有限的表达,限制了??模型的学习能力。因此,将非线性函数作为激活函数添加到CNN的网络结构中,从而??增加网络整体的非线性,使得网络可以拟合任意函数,极大地增强了?CNN的学习和表??达能力。由于Sigmoid函数和tanh函数在训练过程中存在梯度消失的问题,导致模型训??练收敛过慢,所以目前常用的激活函数是ReLU函数和由ReLU函数改进而来的函数。??1、ReLU函数??ReLU函数的公式如式2.1所示,函数图和导数图如图2.6所示。??f?(x)?=?max(0,?jc)?(2.1)??ReLU?兩数?ReLU^gt??/I?1?r-^??0.8?■?/?0-8?-??0.6???/?0.6?■??"?/?"??04?.?/?04??0.2?/?0.2??0??^?0????.1?-0.B?-0?6?-0.4?-0.2?0?0?2?0?4?06?08?1?-1?-0?8?
2)???P-ReLU^tt????P-RaLU#?数??t???/?1'????/??0.8?.?X?0.8??/??0.6?06??>?04?.?y?.?>?04?■?|??/??0.2?-?/?0?2????/??〇?0??■0?2?-0?2???1?-08?-06?-0?4?-02?0?02?0?4?06?OB?1?-1?*0.8?-0?6?-0?4?-0?2?0?0.2?0.4?06?OB?1??X?X??图2.7?P-ReLU函数及其导数图??Fig.?2.7?P-ReLU?function?and?derivative?graph??针对ReLU函数会造成神经元死亡的问题,P-ReLU函数_作为ReLU函数的改进??版本,在负半轴增加了一个斜率a,并且a可学习。与ReLU相比,P-ReLU的训练效??果更好,并且收敛速度更快。当a为固定值0.01时,P-ReLU函数就变成了?Leaky?ReLU??函数。??此外,为了更好地训练CNN,优化算法也是必不可少的一部分。使用合适的优化??算法,可以加快模型收敛并正确学习模型参数。常用的优化算法包括随机梯度下降??(Stochastic?Gradient?Descent,SGD)算法[69—7°】、Momentum算法[7l】、AdaGrad?算法[72]、??RMSProp算法丨731和Adam算法丨74丨。??SGD算法是深度学习中最常见和应用最广泛的优化算法,其根据样本生成分布选择??K个独立同分布的小批量样本,并通过计算梯度均值得到梯度的无偏估计。虽然SGD??算法可以利用少量样本计算梯度
【参考文献】:
期刊论文
[1]阿尔茨海默病早期精准诊断现状及展望[J]. 王培军,亓慧慧,王湘彬. 同济大学学报(医学版). 2019(01)
[2]PET显像在阿尔茨海默病的应用进展[J]. 牛娜,李方. 中国现代神经疾病杂志. 2014(03)
硕士论文
[1]基于CNN和GWAS的阿尔茨海默症早期诊断研究[D]. 贾龙飞.广东工业大学 2019
本文编号:2948419
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2948419.html