基于卷积神经网络和多尺度特征融合的骨龄评估方法研究
发布时间:2021-12-19 10:45
骨龄评估通过骨骼发育形态推断儿童生长的实际情况,具有很多临床应用,例如诊断内分泌疾病和预测青少年最终的成年身高等。骨龄评估方法根据发展的历程可以分为:基于人工估计的方法、基于传统机器学习的方法和基于深度学习的方法。前两种方法非常依赖临床医师的经验和手工特征的设计,对方法应用的普及具有很大的约束。随着深度学习技术的发展,其强大的数据表达能力引起人们的广泛关注。基于深度学习的骨龄评估方法成为医学图像分析领域的一个活跃的方向。由于骨龄评估是一个小数据集的识别任务,它无法为神经网络提供丰富的训练样本。因此,如何在小样本的情况下获取合格的网络模型成为当前发展的一个严重挑战。针对骨龄评估任务中存在的问题,本文提出了一种基于非下采样轮廓波变换和卷积神经网络相结合的X-ray图像多尺度数据融合框架。现有的基于卷积神经网络的骨龄评估方法直接采用原始空间图像作为网络的输入数据,这种方法需要大量的空间域图像作为训练样本。本文通过执行非下采样轮廓波变换对输入图像进行预处理,提取出丰富的特征集合,获得其多尺度、多方向上的表示。由于骨龄评估任务中标签样例的数量非常有限,将这些特征作为网络的训练数据,在一定程度上缓...
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
Sigmoid激活函数Fig2.4Sigmoidactivationfunction
第二章相关理论基础14图2.5Tanh激活函数Fig2.5Tanhactivationfunction如图2.5所示,Tanh激活函数的曲线图与Sigmoid激活函数的图像非常相似,不同之处在于函数的输出范围。Tanh激活函数将输入的数据映射到[-1,1]中,解决了Sigmoid激活函数的输出不是以0为中心的问题。但是Tanh激活函数在0点附近的曲线非常陡,这使参数优化过程中容易出现梯度消失的现象。针对Tanh激活函数曲线两个近似极端的表现,一般在二分类问题中使用的比较多。(3)ReLU激活函数ReLU激活函数的数学形式如下:(2.5)ReLU激活函数的几何形式如下:图2.6ReLU激活函数Fig2.6ReLUactivationfunction如图2.6所示,ReLU激活函数是目前使用最广泛的激活函数。从函数表示中可以得知,ReLU激活函数实际上就是一个取最大值的函数。当输入大于0时,ReLU激活函数的导数始终为1,这就不会衰减或增大反向传播的误差,从而克服了梯度爆炸的问题。当输入小于0时,ReLU激活函数的导数为0,这就导致参数始终不能跳出0值,导致很多神经元的‘死亡’。但是在一定程度上,这种方式又增加了网络的稀疏ReLU=max(0,x),
第二章相关理论基础14图2.5Tanh激活函数Fig2.5Tanhactivationfunction如图2.5所示,Tanh激活函数的曲线图与Sigmoid激活函数的图像非常相似,不同之处在于函数的输出范围。Tanh激活函数将输入的数据映射到[-1,1]中,解决了Sigmoid激活函数的输出不是以0为中心的问题。但是Tanh激活函数在0点附近的曲线非常陡,这使参数优化过程中容易出现梯度消失的现象。针对Tanh激活函数曲线两个近似极端的表现,一般在二分类问题中使用的比较多。(3)ReLU激活函数ReLU激活函数的数学形式如下:(2.5)ReLU激活函数的几何形式如下:图2.6ReLU激活函数Fig2.6ReLUactivationfunction如图2.6所示,ReLU激活函数是目前使用最广泛的激活函数。从函数表示中可以得知,ReLU激活函数实际上就是一个取最大值的函数。当输入大于0时,ReLU激活函数的导数始终为1,这就不会衰减或增大反向传播的误差,从而克服了梯度爆炸的问题。当输入小于0时,ReLU激活函数的导数为0,这就导致参数始终不能跳出0值,导致很多神经元的‘死亡’。但是在一定程度上,这种方式又增加了网络的稀疏ReLU=max(0,x),
【参考文献】:
期刊论文
[1]青少年运动员比赛按骨龄分组科学性的探析[J]. 孙宁,姚莹莹,王琼. 浙江体育科学. 2012(06)
本文编号:3544278
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
Sigmoid激活函数Fig2.4Sigmoidactivationfunction
第二章相关理论基础14图2.5Tanh激活函数Fig2.5Tanhactivationfunction如图2.5所示,Tanh激活函数的曲线图与Sigmoid激活函数的图像非常相似,不同之处在于函数的输出范围。Tanh激活函数将输入的数据映射到[-1,1]中,解决了Sigmoid激活函数的输出不是以0为中心的问题。但是Tanh激活函数在0点附近的曲线非常陡,这使参数优化过程中容易出现梯度消失的现象。针对Tanh激活函数曲线两个近似极端的表现,一般在二分类问题中使用的比较多。(3)ReLU激活函数ReLU激活函数的数学形式如下:(2.5)ReLU激活函数的几何形式如下:图2.6ReLU激活函数Fig2.6ReLUactivationfunction如图2.6所示,ReLU激活函数是目前使用最广泛的激活函数。从函数表示中可以得知,ReLU激活函数实际上就是一个取最大值的函数。当输入大于0时,ReLU激活函数的导数始终为1,这就不会衰减或增大反向传播的误差,从而克服了梯度爆炸的问题。当输入小于0时,ReLU激活函数的导数为0,这就导致参数始终不能跳出0值,导致很多神经元的‘死亡’。但是在一定程度上,这种方式又增加了网络的稀疏ReLU=max(0,x),
第二章相关理论基础14图2.5Tanh激活函数Fig2.5Tanhactivationfunction如图2.5所示,Tanh激活函数的曲线图与Sigmoid激活函数的图像非常相似,不同之处在于函数的输出范围。Tanh激活函数将输入的数据映射到[-1,1]中,解决了Sigmoid激活函数的输出不是以0为中心的问题。但是Tanh激活函数在0点附近的曲线非常陡,这使参数优化过程中容易出现梯度消失的现象。针对Tanh激活函数曲线两个近似极端的表现,一般在二分类问题中使用的比较多。(3)ReLU激活函数ReLU激活函数的数学形式如下:(2.5)ReLU激活函数的几何形式如下:图2.6ReLU激活函数Fig2.6ReLUactivationfunction如图2.6所示,ReLU激活函数是目前使用最广泛的激活函数。从函数表示中可以得知,ReLU激活函数实际上就是一个取最大值的函数。当输入大于0时,ReLU激活函数的导数始终为1,这就不会衰减或增大反向传播的误差,从而克服了梯度爆炸的问题。当输入小于0时,ReLU激活函数的导数为0,这就导致参数始终不能跳出0值,导致很多神经元的‘死亡’。但是在一定程度上,这种方式又增加了网络的稀疏ReLU=max(0,x),
【参考文献】:
期刊论文
[1]青少年运动员比赛按骨龄分组科学性的探析[J]. 孙宁,姚莹莹,王琼. 浙江体育科学. 2012(06)
本文编号:3544278
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3544278.html
最近更新
教材专著