基于全卷积神经网络的多尺度视网膜图像分割算法研究
发布时间:2021-06-25 01:48
视网膜图像包含丰富的组织结构和病灶信息,视网膜图像的处理和分析能够为多种眼底疾病的早期筛查提供重要临床依据。受限于视网膜图像成像条件等客观因素,单凭眼科医生手工筛查眼底图像进行疾病诊断十分耗时费力,无法满足大规模眼底图像检查的需要。因此,结合图像处理和深度学习技术实现视网膜图像的自动分割对于疾病早期筛查具有重要研究价值。本文基于深度学习对视网膜图像分割技术进行研究,完成视网膜图像血管和视盘分割。本文主要的研究内容和创新成果如下:1)在视网膜血管分割工作中,本文提出了一种基于全卷积神经网络的视网膜血管分割算法,无需手工设计特征和后处理过程。首先,通过跳跃连接构建编码器—解码器分割网络,将低层特征和高层语义特征融合。其次,我们引入残差学习和Dropout策略进一步学习图像边缘和纹理特征。2)针对视网膜图像细小血管难以分割的问题,本文提出利用空洞卷积构建空洞空间金字塔池化模块,通过融合来自不同感受野的多尺度信息实现多尺度分割。一方面能扩大感受野,充分结合上下文信息,提高对细小血管的分割能力;另一方面,空洞卷积大大减少学习参数,利于模型训练和优化。我们还使用类别平衡损失函数,有效解决数据集中正...
【文章来源】:天津大学天津市 211工程院校 985工程院校 教育部直属院校
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
视网膜图像血管结构
第2章深度学习与全卷积神经网络9第2章深度学习与全卷积神经网络本文针对视网膜图像中的血管和视盘分割方法进行研究,并主要以基于深度学习中的全卷积神经网络为基础进行算法和应用的创新。首先,本章以人工神经网络的基本概念和原理作为研究基础,并重点分析常见激活函数和多层前馈神经网络的训练过程。接着,本章对深度学习中卷积神经网络的结构和原理进行阐述,介绍常见网络层的基本原理,并概括网络前向和反向传播流程和模型优化的方法,总结卷积神经网络的特性和优势。之后,针对图像分割领域常用的全卷积神经网络进行介绍,包括算法原理和基本网络结构等相关内容。最后,简单介绍了一些常用的深度学习框架。2.1人工神经网络算法人类大脑的神经系统利用神经元细胞传输信息,神经信号通过细胞体释放神经递质传递到另一个细胞体,大量形式相同的神经元连接形成神经网络。人工神经网络(Artificialneuralnetwork)模拟生物神经网络结构和工作原理,由大量神经元构成基本单位,运用计算机技术模拟生物处理神经信号的过程。每个神经元与周围神经元相连,当某个神经元的存储信息达到某一激活阈值时,就会向周围神经元发送信号从而改变相邻神经元的状态,进而继续向下进行信息传递。1943年,McCulloch和Pitts提出了“M-P神经元模型”,将神经元工作原理抽象为数学模型,单个神经元结构示意图如图2-1所示。图2-1人工神经元结构示意图神经元接受到来自其他神经元传递过来的输入信号,通过带权重的值互相连接,当神经元接受到的总输入值超过设定的某个阈值后,通过激活函数处理后输
天津大学硕士学位论文10出。其中,y代表神经元的输出,代表激活函数,ix代表来自第i个神经元,即为输入数据每一维的值,iw代表第i个输入的连接权重值,0w代表偏置项。人工神经网络模型的具体计算表达式为:01niiiywxw(2-1)理想的激活函数为阶跃函数,即将输入值映射为1或0,分别代表神经元兴奋或者受到抑制。然而,阶跃函数具有不连续和不光滑的性质,因此实际应用中常用Sigmoid、Tanh、ReLU和LeakyReLU等函数作为激活函数[49],这些激活函数能将较大范围内变化的输入值映射到(0,1)输出值范围内,同时将线性模型转换为非线性模型,可用来解决异或等较复杂的非线性问题。常用的激活函数如图2-2所示。图2-2常见的激活函数Sigmoid、Tanh、ReLU和LeakyReLU激活函数分别定义如下:11xfxe(2-2)xxxxeefxee(2-3)fxmax0,x(2-4),0,0axxfxxx(2-5)其中,Sigmoid函数是一种饱和非线性函数,常用于二分类等问题的输出层。当输入远离坐标原点时,函数输出梯度几乎为零,会导致梯度消失的问题,此时
【参考文献】:
期刊论文
[1]基于MRI的脑肿瘤分割技术研究进展[J]. 万俊,聂生东,王远军. 中国医学物理学杂志. 2013(04)
[2]基于数学形态学的边缘检测算法研究及应用[J]. 王慧锋,战桂礼,罗晓明. 计算机工程与应用. 2009(09)
博士论文
[1]水平集方法及其在图像分割中的应用研究[D]. 王晓峰.中国科学技术大学 2009
本文编号:3248248
【文章来源】:天津大学天津市 211工程院校 985工程院校 教育部直属院校
【文章页数】:70 页
【学位级别】:硕士
【部分图文】:
视网膜图像血管结构
第2章深度学习与全卷积神经网络9第2章深度学习与全卷积神经网络本文针对视网膜图像中的血管和视盘分割方法进行研究,并主要以基于深度学习中的全卷积神经网络为基础进行算法和应用的创新。首先,本章以人工神经网络的基本概念和原理作为研究基础,并重点分析常见激活函数和多层前馈神经网络的训练过程。接着,本章对深度学习中卷积神经网络的结构和原理进行阐述,介绍常见网络层的基本原理,并概括网络前向和反向传播流程和模型优化的方法,总结卷积神经网络的特性和优势。之后,针对图像分割领域常用的全卷积神经网络进行介绍,包括算法原理和基本网络结构等相关内容。最后,简单介绍了一些常用的深度学习框架。2.1人工神经网络算法人类大脑的神经系统利用神经元细胞传输信息,神经信号通过细胞体释放神经递质传递到另一个细胞体,大量形式相同的神经元连接形成神经网络。人工神经网络(Artificialneuralnetwork)模拟生物神经网络结构和工作原理,由大量神经元构成基本单位,运用计算机技术模拟生物处理神经信号的过程。每个神经元与周围神经元相连,当某个神经元的存储信息达到某一激活阈值时,就会向周围神经元发送信号从而改变相邻神经元的状态,进而继续向下进行信息传递。1943年,McCulloch和Pitts提出了“M-P神经元模型”,将神经元工作原理抽象为数学模型,单个神经元结构示意图如图2-1所示。图2-1人工神经元结构示意图神经元接受到来自其他神经元传递过来的输入信号,通过带权重的值互相连接,当神经元接受到的总输入值超过设定的某个阈值后,通过激活函数处理后输
天津大学硕士学位论文10出。其中,y代表神经元的输出,代表激活函数,ix代表来自第i个神经元,即为输入数据每一维的值,iw代表第i个输入的连接权重值,0w代表偏置项。人工神经网络模型的具体计算表达式为:01niiiywxw(2-1)理想的激活函数为阶跃函数,即将输入值映射为1或0,分别代表神经元兴奋或者受到抑制。然而,阶跃函数具有不连续和不光滑的性质,因此实际应用中常用Sigmoid、Tanh、ReLU和LeakyReLU等函数作为激活函数[49],这些激活函数能将较大范围内变化的输入值映射到(0,1)输出值范围内,同时将线性模型转换为非线性模型,可用来解决异或等较复杂的非线性问题。常用的激活函数如图2-2所示。图2-2常见的激活函数Sigmoid、Tanh、ReLU和LeakyReLU激活函数分别定义如下:11xfxe(2-2)xxxxeefxee(2-3)fxmax0,x(2-4),0,0axxfxxx(2-5)其中,Sigmoid函数是一种饱和非线性函数,常用于二分类等问题的输出层。当输入远离坐标原点时,函数输出梯度几乎为零,会导致梯度消失的问题,此时
【参考文献】:
期刊论文
[1]基于MRI的脑肿瘤分割技术研究进展[J]. 万俊,聂生东,王远军. 中国医学物理学杂志. 2013(04)
[2]基于数学形态学的边缘检测算法研究及应用[J]. 王慧锋,战桂礼,罗晓明. 计算机工程与应用. 2009(09)
博士论文
[1]水平集方法及其在图像分割中的应用研究[D]. 王晓峰.中国科学技术大学 2009
本文编号:3248248
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3248248.html