基于深度学习的股骨分割
发布时间:2020-09-18 20:34
随着计算机数据处理能力的加快和人工智能技术的成熟,医生越来越多地使用数字图像来进行辅助诊断治疗,其中X光检查是一种有效筛查疾病的传统方法,它在诊断治疗的不同阶段使用,包括骨折诊断治疗、评价骨骼成熟度、骨密度测量和手术前的治疗计划等。X线片中骨组织的分割是计算机辅助预后、外科手术和治疗的主要步骤,但是因为医学成像技术的限制和成像物体的特殊性,以及医学图像固有的特点,如灰度不均匀、影像相互重叠、噪声大且边界模糊等,使医学图像的分割充满挑战。目前X线片骨组织的分割主要靠医生手工标记,不仅耗时耗力而且分割结果难以复现,准确率不稳定。基于此,本文的主要工作如下:1、以股骨为研究对象,针对目前X线片骨组织分割不能自动化的问题以及U-Net网络在股骨分割中出现网络退化问题的不足,本文提出了一种新的深度神经网络R-U-Net。它结合了深度残差网络和U-Net架构的优势,使用残差单元代替普通的神经单元作为基本的块,残差单元内部的跳跃连接和R-U-Net网络的编解码路径有利于信息的前向传播和后向计算,不仅可以简化训练,使网络参数仅占U-Net的四分之一,而且能够最大程度地提升网络性能。2、设计并实现了股骨区域自动分割框架,将提出的R-U-Net神经网络应用于股骨区域自动分割。横向可分为神经网络训练阶段和批量自动分割阶段两个主要部分,纵向可分为数据预处理、神经网络训练与测试和图像后处理三个主要部分。首先对原图像预处理后标注目标区域制作标签图,并对训练集进行数据增强;接着将其输入到R-U-Net神经网络充分训练调参,保存优化后的网络模型;最后将待分割的测试图像输入到保存的网络模型中得到股骨区域的轮廓,填充连通区域后进行自定义掩码操作得到股骨区域的分割结果,实现了端到端X线片股骨的完全自动化分割。3、分别基于U-Net和R-U-Net神经网络实现了股骨区域的自动分割。将预处理好的数据集在U-Net和R-U-Net神经网络上分别进行训练和测试,对比其训练收敛过程可以看出,本文提出的R-U-Net神经网络改善了原始U-Net的不足,在股骨分割网络模型的训练上表现得更加优异。将最优的模型分别保存下来,着重使用医学图像分割中常用的五个度量指标来定量的评价基于U-Net和基于R-U-Net神经网络的股骨区域自动分割方法,以PhotoShop人工分割结果作为参考,实验结果表明,基于R-U-Net神经网络的方法在保证分割速度的同时,分割结果与参考结果十分接近,具有较高的准确性,且基于R-U-Net神经网络的股骨区域自动分割效果不同程度的优于其他两种先进的图像分割方法,执行效率更高,分割效果更佳。
【学位单位】:西安邮电大学
【学位级别】:硕士
【学位年份】:2019
【中图分类】:TP18;TP391.41;R318
【部分图文】:
1 1 26 7 8453 2 12 3 401Max pooling2*2 filtersStride 236 84图 2.3 池化操作)来表示池化层的运算:1( ( ) )l l l lj j j jy down y b 的第 j 张特征图, 是指激活函数,lj 是指本层的乘性ljb 是指本层的加性偏置。常作为最后一层,被用来编码位置相关的信息和更全局经网络的连接方式一样,前后层所有节点两两连接到一一起形成全局特征做特征映射,转化为一维特征向量,对应相加,最后用分类器或回归的方法取得最终的结果。
图 3.5 Sigmoid 函数图像 图 3.6 Tanh 函数图像图 3.7 ReLU 函数图像在激活区域( x 0),ReLU 导数为 1,在非激活区域( x 0),导数是以不会在错误信号传递时将其改变,对于激活函数来说,这似乎是一个奇怪的选为它在 0 处是不可微的。实际上,在零点处的不可微是无关紧要的,因为神经网在实数中工作的,它在任何时刻都不太可能正好处在 x =0处,在 处的导数我
图 3.5 Sigmoid 函数图像 图 3.6 Tanh 函数图像图 3.7 ReLU 函数图像在激活区域( x 0),ReLU 导数为 1,在非激活区域( x 0),导数是以不会在错误信号传递时将其改变,对于激活函数来说,这似乎是一个奇怪的选为它在 0 处是不可微的。实际上,在零点处的不可微是无关紧要的,因为神经网在实数中工作的,它在任何时刻都不太可能正好处在 x =0处,在 处的导数我
【学位单位】:西安邮电大学
【学位级别】:硕士
【学位年份】:2019
【中图分类】:TP18;TP391.41;R318
【部分图文】:
1 1 26 7 8453 2 12 3 401Max pooling2*2 filtersStride 236 84图 2.3 池化操作)来表示池化层的运算:1( ( ) )l l l lj j j jy down y b 的第 j 张特征图, 是指激活函数,lj 是指本层的乘性ljb 是指本层的加性偏置。常作为最后一层,被用来编码位置相关的信息和更全局经网络的连接方式一样,前后层所有节点两两连接到一一起形成全局特征做特征映射,转化为一维特征向量,对应相加,最后用分类器或回归的方法取得最终的结果。
图 3.5 Sigmoid 函数图像 图 3.6 Tanh 函数图像图 3.7 ReLU 函数图像在激活区域( x 0),ReLU 导数为 1,在非激活区域( x 0),导数是以不会在错误信号传递时将其改变,对于激活函数来说,这似乎是一个奇怪的选为它在 0 处是不可微的。实际上,在零点处的不可微是无关紧要的,因为神经网在实数中工作的,它在任何时刻都不太可能正好处在 x =0处,在 处的导数我
图 3.5 Sigmoid 函数图像 图 3.6 Tanh 函数图像图 3.7 ReLU 函数图像在激活区域( x 0),ReLU 导数为 1,在非激活区域( x 0),导数是以不会在错误信号传递时将其改变,对于激活函数来说,这似乎是一个奇怪的选为它在 0 处是不可微的。实际上,在零点处的不可微是无关紧要的,因为神经网在实数中工作的,它在任何时刻都不太可能正好处在 x =0处,在 处的导数我
【相似文献】
相关期刊论文 前10条
1 胡悦;;金融市场中的神经网络拐点预测法[J];金融经济;2017年18期
2 李青华;李翠平;张静;陈红;王绍卿;;深度神经网络压缩综述[J];计算机科学;2019年09期
3 迟惠生;陈珂;;1995年世界神经网络大会述评[J];国际学术动态;1996年01期
4 吴立可;;脉冲神经网络和行为识别[J];通讯世界;2018年12期
5 林嘉应;郑柏伦;刘捷;;基于卷积神经网络的船舶分类模型[J];信息技术与信息化;2019年02期
6 俞颂华;;卷积神经网络的发展与应用综述[J];信息通信;2019年02期
7 韩真;凯文·哈特尼特;;为神经网络的通用理论建造基石[J];世界科学;2019年04期
8 鲍伟强;陈娟;熊涛;;基于进化神经网络的短期电力负荷预测研究[J];电工技术;2019年11期
9 陈晓燕;;浅析简单神经网络的发展及简单模型[J];数字技术与应用;2019年05期
10 王丽华;杨秀萍;王皓;高峥翔;;智能双轮平衡车的设计研究[J];数字技术与应用;2018年04期
相关会议论文 前10条
1 孙军田;张U
本文编号:2822144
本文链接:https://www.wllwen.com/yixuelunwen/swyx/2822144.html