基于深度目标识别的细胞计数研究
发布时间:2020-12-09 15:57
细胞计数研究是医学图像分析中的一项重要领域,无论是在生物医学实验领域还是临床医学诊断领域都发挥着不可替代的作用。通过检测患者血液和尿沉渣显微图像中的白细胞、红细胞等各项指标,能够准确地判断出患者的疾病类型和发展程度,以便采取及时、有效的治疗方案。目前,临床上仍然通过人工方式对不同类型的细胞进行计数诊断,但这种方式检测效率低且计数准确率也受工作人员的状态和经验影响,妨碍医护人员对于病情的判断,影响治疗进度。随着深度目标检测技术的快速发展,医学图像分析领域的研究也有了突破性的进展。基于深度学习的目标检测算法,相对于传统的图像处理方法在检测速度和精度上有很大提升。使用深度目标识别算法对血液和尿沉渣显微图像中进行细胞的识别和计数研究,并在两个数据集上实验进行相关验证。本文基于一阶段深度检测YOLO框架,提出了一种新颖的YOLO-Dense网络模型。首先通过使用K-means算法对锚框进行聚类,获得三种不同大小的潜在待识别目标的锚框,并在YOLO基础网络中引入残差模块和特征金字塔的多尺度模块,以提高对小目标的识别精度;其次通过跳层连接进行残差训练,有效解决深度网络梯度弥散和爆炸等问题;最后通过在...
【文章来源】:安徽大学安徽省 211工程院校
【文章页数】:79 页
【学位级别】:硕士
【部分图文】:
YOLO算法原理流程
安徽大学硕士学位论文9图2.2YOLO网络基本结构图Fig2.2BasicstructureofYOLOnetworkYOLO的网络框架是在GoogLeNet[39]上进行改进,图像的特征信息主要由网络的卷积层来提取,而具体的目标位置预测与类别概率值则有全连接层进行。输入图片进入网络前需进行resize预处理为大小448*448*3的输入特征图,最终输出结果为7*7*(2*5+20)的特征图。输入图像被划分为7*7的网格(grid),输出张量中的7*7就对应着原始图像被分割的7*7网格。通俗来说,可以把7*7*30的张量看作49个30维的向量,输入特征图中的每个网格对应输出的一个30维向量。2.2.3特征向量详解输出特征图像经过深度卷积神经网络对输入图像特征信息的提取和转换,每个网格的空间信息也会被重新识别和整理,最后编码到其对应的30维向量中,所以说网格内的信息并不是简单意义上的映射到一个30维向量上。严格意义上,30维向量=20个对象类别的概率+2个预测框*4个位置坐标+2个边界框置信度。具体来看图2.3中每个网格对应的30维向量,包含了以下信息:
第二章目标检测算法概述10图2.3特征向量详解图Fig2.3Featurevectordetailedmap2个预测框的位置。YOLO算法为每个输出网格预测两个边界框,而每个预测框又需要4个位置信息数值(x,y,w,h)进行定位,分别对应预测框中心点的x坐标、y坐标以及边界框的宽度和高度。因此,每个网格的2个预测框需要8个数值来表征其预测的位置。2个预测框的置信度。YOLO算法为每个网格预测两个边界框,每个预测框设置一个置信度,预测框的置信度表示着每个预测框是否包含对象以及位置准确的程度,由边界框内是否存在对象和边界框与该对象实际边界框的IOU共同决定。置信度高表示这里该预测框存在一个对象且位置比较准确,置信度低表示可能存在有对象但存在较大的位置偏差或者根本没有对象。用公式来表示就是:truthpredonfidenceIOU*ObjectPCr(2.1)Pr(Object)是预测框内存在对象的概率,它不管该边界框中具体是哪个对象,它体现的是该边界框内是否存在对象的概率,用数值0和1来表示。truthpredIOU是边界框与真实的对象边界框的IOU(IntersectionoverUnion,交并比),体现了网络预测边界框与真实边界框的贴合程度。虽然有时说"预测"的边界框,但这个IOU的计算只存在于训练阶段。由于真实对象位置未知,只能完全依赖于网络的输出,测试阶段并不需要
本文编号:2907116
【文章来源】:安徽大学安徽省 211工程院校
【文章页数】:79 页
【学位级别】:硕士
【部分图文】:
YOLO算法原理流程
安徽大学硕士学位论文9图2.2YOLO网络基本结构图Fig2.2BasicstructureofYOLOnetworkYOLO的网络框架是在GoogLeNet[39]上进行改进,图像的特征信息主要由网络的卷积层来提取,而具体的目标位置预测与类别概率值则有全连接层进行。输入图片进入网络前需进行resize预处理为大小448*448*3的输入特征图,最终输出结果为7*7*(2*5+20)的特征图。输入图像被划分为7*7的网格(grid),输出张量中的7*7就对应着原始图像被分割的7*7网格。通俗来说,可以把7*7*30的张量看作49个30维的向量,输入特征图中的每个网格对应输出的一个30维向量。2.2.3特征向量详解输出特征图像经过深度卷积神经网络对输入图像特征信息的提取和转换,每个网格的空间信息也会被重新识别和整理,最后编码到其对应的30维向量中,所以说网格内的信息并不是简单意义上的映射到一个30维向量上。严格意义上,30维向量=20个对象类别的概率+2个预测框*4个位置坐标+2个边界框置信度。具体来看图2.3中每个网格对应的30维向量,包含了以下信息:
第二章目标检测算法概述10图2.3特征向量详解图Fig2.3Featurevectordetailedmap2个预测框的位置。YOLO算法为每个输出网格预测两个边界框,而每个预测框又需要4个位置信息数值(x,y,w,h)进行定位,分别对应预测框中心点的x坐标、y坐标以及边界框的宽度和高度。因此,每个网格的2个预测框需要8个数值来表征其预测的位置。2个预测框的置信度。YOLO算法为每个网格预测两个边界框,每个预测框设置一个置信度,预测框的置信度表示着每个预测框是否包含对象以及位置准确的程度,由边界框内是否存在对象和边界框与该对象实际边界框的IOU共同决定。置信度高表示这里该预测框存在一个对象且位置比较准确,置信度低表示可能存在有对象但存在较大的位置偏差或者根本没有对象。用公式来表示就是:truthpredonfidenceIOU*ObjectPCr(2.1)Pr(Object)是预测框内存在对象的概率,它不管该边界框中具体是哪个对象,它体现的是该边界框内是否存在对象的概率,用数值0和1来表示。truthpredIOU是边界框与真实的对象边界框的IOU(IntersectionoverUnion,交并比),体现了网络预测边界框与真实边界框的贴合程度。虽然有时说"预测"的边界框,但这个IOU的计算只存在于训练阶段。由于真实对象位置未知,只能完全依赖于网络的输出,测试阶段并不需要
本文编号:2907116
本文链接:https://www.wllwen.com/shoufeilunwen/benkebiyelunwen/2907116.html