基于深度学习的医学图像分割算法的优化与实现
发布时间:2022-01-26 07:14
恶性肿瘤一直是危害人类健康的主要疾病之一,其发病率和死亡率一直居高不下。在治疗肿瘤的放化疗过程中,对肿瘤区域的靶区与周围重要器官的分割一直处于重要地位。此前由医生进行的人工分割成本巨大,如何进一步减轻医生的工作量,提高治疗的效率一直是近年来的研究热点。随着人工智能技术的快速发展,深度学习算法在计算机辅助诊断中取得了突破性的应用。基于深度学习的图像分割算法应用在医学领域,能够快速地实现自动化的靶区勾画与器官分割,减缓医疗资源的紧张,提高患者的就医率。对治疗恶性肿瘤意义重大。本文主要是对基于深度学习的医学图像分割算法3D-Unet进行研究优化与实现。主要贡献如下:1.提出了一种水平深度多尺度的U型卷积神经网络(Level Depth Multiscale U-net,LDM-Unet)分割算法,基于3D-Unet,在水平层采用多卷积堆叠方式提取多尺度信息,提高网络对不同尺度目标的感知能力,在各深度层利用空洞卷积提取不同深度的空间结构信息,避免连续池化带来的信息损失,从而提高网络的分割性能。在公开数据集BraTS 2018上对WholeTumor,TumorCore以及EnhancingTu...
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:75 页
【学位级别】:硕士
【部分图文】:
感知器结构示意图
第二章相关理论基础图2-2简单神经网络示意图2.1.2梯度下降算法与反向传播神经网络的前向传播可以根据输入计算出网络的输出结果,但是神经网络的一系列参数如权重和偏置需要从数据中学习得到。1986年hinton[39]提出了反向传播算法,用于对神经网络的训练,实践证明反向传播对神经网络的训练效果很好,如今的深度学习的网络模型的训练都是采用反向传播算法进行的。反向传播算法的核心思想是,通过前向传播从输入数据中计算出一个输出结果,然后通过一个误差损失函数来衡量网络的预测输出与真实的数据标签之间的误差。计算损失函数对网络模型中各参数的导数并通过梯度下降算法来更新所有的网络模型参数。达到参数的自动化学习。均方误差函数是经典的损失函数之一,其定义表达式如下:C(w,b)=12nxy(x)aL(x)2(2-6)其中C(w,b)代表了该损失函数是关于自变量w与b的函数映射。w代表了网络中所有权重的集合,b代表了所有的偏置的集合。n为训练样本的个数,x表示所有训练样本的集合,y(x)代表了训练样本对应的标签,L代表了网络的总层数,aL(x)代表了训练样本对应的网络输出。从函数定义可知均方误差函数是非负的,并且当网络对应输入x的预测输出值越接近x的标签时,函数值越校当损失函数值接近0时,代表神经网络的各参数值已经得到了良好的训练,可以使网络的输出与原始的标签达到基本一致。所以对神经网络的训练转变为求取损失函数的9
电子科技大学硕士学位论文最小值。均方误差函数的示意图如图2-3所示。图2-3二元均方误差函数示意图对均方误差损失函数求取最小值的过程中,难以利用微积分中寻找最值点的方法,因为神经网络的训练样本的维度通常是非常巨大的,这样就使得损失函数是一个非常复杂的多元函数,用微积分来直接计算最小值其计算量是无法承担的。解决的方法是利用梯度下降法来近似求解。梯度下降法的核心思想是迭代近似求解,从一个初始点出发,计算函数在当前位置的梯度,然后将位置逆梯度移动,也就是逆梯度方向更新参数,函数值随之变小,通过不断地迭代移动,函数值最终达到一个可以接收的较小值。二元均方误差函数的梯度下降示意如图2-4所示.梯度下降法更新参数的规则如下所示:wk→w′k=wkηCwkbl→b′l=blηCbl(2-7)其中η代表了一次移动的步长,称为学习率,是人为指定的参数,称为超参数,与权重偏置等被网络自动学习的参数不同。这个超参数决定了参数更新的速率。由于训练样本的数量通常比较大,所以如果在所有训练样本上进行梯度下降也会导致训练速度过慢。解决的办法是每次选取一个批次(Batch)的训练样本,在这个批次上进行一步梯度下降算法,对网络模型的所有参数进行一次更新操作。10
本文编号:3610064
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:75 页
【学位级别】:硕士
【部分图文】:
感知器结构示意图
第二章相关理论基础图2-2简单神经网络示意图2.1.2梯度下降算法与反向传播神经网络的前向传播可以根据输入计算出网络的输出结果,但是神经网络的一系列参数如权重和偏置需要从数据中学习得到。1986年hinton[39]提出了反向传播算法,用于对神经网络的训练,实践证明反向传播对神经网络的训练效果很好,如今的深度学习的网络模型的训练都是采用反向传播算法进行的。反向传播算法的核心思想是,通过前向传播从输入数据中计算出一个输出结果,然后通过一个误差损失函数来衡量网络的预测输出与真实的数据标签之间的误差。计算损失函数对网络模型中各参数的导数并通过梯度下降算法来更新所有的网络模型参数。达到参数的自动化学习。均方误差函数是经典的损失函数之一,其定义表达式如下:C(w,b)=12nxy(x)aL(x)2(2-6)其中C(w,b)代表了该损失函数是关于自变量w与b的函数映射。w代表了网络中所有权重的集合,b代表了所有的偏置的集合。n为训练样本的个数,x表示所有训练样本的集合,y(x)代表了训练样本对应的标签,L代表了网络的总层数,aL(x)代表了训练样本对应的网络输出。从函数定义可知均方误差函数是非负的,并且当网络对应输入x的预测输出值越接近x的标签时,函数值越校当损失函数值接近0时,代表神经网络的各参数值已经得到了良好的训练,可以使网络的输出与原始的标签达到基本一致。所以对神经网络的训练转变为求取损失函数的9
电子科技大学硕士学位论文最小值。均方误差函数的示意图如图2-3所示。图2-3二元均方误差函数示意图对均方误差损失函数求取最小值的过程中,难以利用微积分中寻找最值点的方法,因为神经网络的训练样本的维度通常是非常巨大的,这样就使得损失函数是一个非常复杂的多元函数,用微积分来直接计算最小值其计算量是无法承担的。解决的方法是利用梯度下降法来近似求解。梯度下降法的核心思想是迭代近似求解,从一个初始点出发,计算函数在当前位置的梯度,然后将位置逆梯度移动,也就是逆梯度方向更新参数,函数值随之变小,通过不断地迭代移动,函数值最终达到一个可以接收的较小值。二元均方误差函数的梯度下降示意如图2-4所示.梯度下降法更新参数的规则如下所示:wk→w′k=wkηCwkbl→b′l=blηCbl(2-7)其中η代表了一次移动的步长,称为学习率,是人为指定的参数,称为超参数,与权重偏置等被网络自动学习的参数不同。这个超参数决定了参数更新的速率。由于训练样本的数量通常比较大,所以如果在所有训练样本上进行梯度下降也会导致训练速度过慢。解决的办法是每次选取一个批次(Batch)的训练样本,在这个批次上进行一步梯度下降算法,对网络模型的所有参数进行一次更新操作。10
本文编号:3610064
本文链接:https://www.wllwen.com/yixuelunwen/swyx/3610064.html