基于弱监督学习的三维脑图像细胞分割
发布时间:2021-07-29 13:28
处理与分析高分辨率显微脑图像可以帮助我们认识大脑细胞层次的结构特点,理解大脑结构与功能之间的联系,能够为人工智能的发展带来指导和启发,而对脑图像进行细胞形态分割是脑图像分析的重要辅助手段。图像分割是计算机视觉领域的一个重要研究方向,可以服务于更高层次的图像分析、统计任务。当前基于深度学习的图像分割算法无论是在自然图像还是生物医学图像领域都有优异的表现,但是大多方法都依赖大量人工标注的像素级标签,人力、时间成本高。对于本文研究的脑图像一类的生物医学图像数据更是如此:很多图像是三维的,需要借助专门的软件查看,并且对这样的图像进行标注可能需要相关的专业知识。所以对我们来说,用于分割网络训练的像素级标注更难获取。因此,我们提出使用弱监督学习的方式解决脑图像的细胞形态分割任务,在使用可接受的较低标注成本的前提下完成数据集标注和脑图像的细胞形态分割。以上述任务为目标,我们创建了用于三维鼠脑和猴脑图像细胞分割的数据集,两个数据集均包括弱标注的训练集和精细标注的测试集,弱标注可以以较低的成本获取;同时,我们提出了三个基于弱监督学习的分割算法,这些基于深度学习的分割方法均不依赖像素级的精细标注。本文的主...
【文章来源】:中国科学技术大学安徽省 211工程院校 985工程院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
图1.2图像分类、语义分割与实例分割的区别??
?第1章绪?论???y/Yr?Fully?Convolutional?Networks??image-level?labels?points?bounding?boxes?scribbles?pixel-level?labels??MBMMMj?BBB??5S??ls/class?2.4s/instance?lOs/in?stance?17s/instance?78s/instance???I?|?|?|?1??Annotation?time??图1.3弱监督学习的标注类型和标注时间成本??将原有粗糙的伪标注进行优化,这样多次迭代之后可以不断完善标注的同时提??升分割网络模型的性能。Lin等人[14]的工作使用粗糙的简单线条标注实现语义??分割任务,在不同类别的像素区域均有简单的线条标注,他们将问题分解为两个??子任务:利用图模型扩张标注像素范围和利用像素标注训练语义分割模型,这两??个子任务互相依赖,通过多次迭代完成语义分割模型的训练。更简单地,Laradji??等人[15]利用点标注实现实例分割,他们使用两个并列的网络结构,分别检测??实例的位置和预测每个像素的嵌入式表达,并且属于同一个实例的嵌入式表达??之间的距离更近,利用嵌入式表达对像素进行聚类获得实例分割结果。Ahn等??人[16]的工作只需要图像类别标注即可实现实例分割,他们的做法也是先获得??生成的伪标签,然后把这些伪标作为实例分割网络的监督信息。该方法先利用分??类网络和CAM(Class?Activation?Mapping)?[17]获得与类别相关的高置信度区域??作为该类别的种子区域,同时用一个IRNet预测实例个体
?第1章绪?论???.t)4?M??堂?64?64?2??input?output??丨,:“?KEr她n??s?6?s?Siii??SSS?|??▼?i.'8?i?a??2se?i^o??M? ̄ ̄ ̄—?M??令.?&6?:S6?^?-jcjg??会??C〇nv3x3,ReLU??一:?t?“?—〇P???臟一?2x2??2?^?f?i〇-4???S?泛?4?up-conv?2x2??、暇?mm???conv?ixi??图1.5?U-Net网络结构??据中相邻二维序列图之间的相关性,只对其中部分二维图像进行精细标注,这些??图分布在不同方向的截面,使用这样标注的数据训练三维卷积神经网络可以实??现学习目标区域的三维形态分割。前述工作的任务都是语义分割,Zhao等人[23]??将自然图像中实例分割的网络框架Mask?RCNN进行改进并应用到三维生物医学??图像数据上,同样考虑到降低标注成本,他们使用三维矩形框标注了所有的目标??细胞作为训练数据,用于检测任务监督,并将少部分目标细胞进行像素级精细标??注用于分割任务监督,实验结果表明即使在少量精细标注的前提下也可以学到??较为理想的实例分割效果。Qu等人[24]在[25]基于点标注的弱监督分割算法基??础上,对图像中的少部分细胞进行像素级的精细标注,然后利用该标注对网络作??进一步微调优化,可以在较低额外标注成本的条件下获得一定分割性能的提升。??虽然上边这些方法都在一定程度上减轻了人工标注的负担,但是它们仍然或??多或少地依赖精细的、像素级别的标注,近期有越来越多的工作提出只需要利用??点标注的弱监督细胞分割算法[25-28]。其中N
【参考文献】:
期刊论文
[1]Scalable volumetric imaging for ultrahigh-speed brain mapping at synaptic resolution[J]. Hao Wang,Qingyuan Zhu,Lufeng Ding,Yan Shen,Chao-Yu Yang,Fang Xu,Chang Shu,Yujie Guo,Zhiwei Xiong,Qinghong Shan,Fan Jia,Peng Su,Qian-Ru Yang,Bing Li,Yuxiao Cheng,Xiaobin He,Xi Chen,Feng Wu,Jiang-Ning Zhou,Fuqiang Xu,Hua Han,Pak-Ming Lau,Guo-Qiang Bi. National Science Review. 2019(05)
本文编号:3309412
【文章来源】:中国科学技术大学安徽省 211工程院校 985工程院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
图1.2图像分类、语义分割与实例分割的区别??
?第1章绪?论???y/Yr?Fully?Convolutional?Networks??image-level?labels?points?bounding?boxes?scribbles?pixel-level?labels??MBMMMj?BBB??5S??ls/class?2.4s/instance?lOs/in?stance?17s/instance?78s/instance???I?|?|?|?1??Annotation?time??图1.3弱监督学习的标注类型和标注时间成本??将原有粗糙的伪标注进行优化,这样多次迭代之后可以不断完善标注的同时提??升分割网络模型的性能。Lin等人[14]的工作使用粗糙的简单线条标注实现语义??分割任务,在不同类别的像素区域均有简单的线条标注,他们将问题分解为两个??子任务:利用图模型扩张标注像素范围和利用像素标注训练语义分割模型,这两??个子任务互相依赖,通过多次迭代完成语义分割模型的训练。更简单地,Laradji??等人[15]利用点标注实现实例分割,他们使用两个并列的网络结构,分别检测??实例的位置和预测每个像素的嵌入式表达,并且属于同一个实例的嵌入式表达??之间的距离更近,利用嵌入式表达对像素进行聚类获得实例分割结果。Ahn等??人[16]的工作只需要图像类别标注即可实现实例分割,他们的做法也是先获得??生成的伪标签,然后把这些伪标作为实例分割网络的监督信息。该方法先利用分??类网络和CAM(Class?Activation?Mapping)?[17]获得与类别相关的高置信度区域??作为该类别的种子区域,同时用一个IRNet预测实例个体
?第1章绪?论???.t)4?M??堂?64?64?2??input?output??丨,:“?KEr她n??s?6?s?Siii??SSS?|??▼?i.'8?i?a??2se?i^o??M? ̄ ̄ ̄—?M??令.?&6?:S6?^?-jcjg??会??C〇nv3x3,ReLU??一:?t?“?—〇P???臟一?2x2??2?^?f?i〇-4???S?泛?4?up-conv?2x2??、暇?mm???conv?ixi??图1.5?U-Net网络结构??据中相邻二维序列图之间的相关性,只对其中部分二维图像进行精细标注,这些??图分布在不同方向的截面,使用这样标注的数据训练三维卷积神经网络可以实??现学习目标区域的三维形态分割。前述工作的任务都是语义分割,Zhao等人[23]??将自然图像中实例分割的网络框架Mask?RCNN进行改进并应用到三维生物医学??图像数据上,同样考虑到降低标注成本,他们使用三维矩形框标注了所有的目标??细胞作为训练数据,用于检测任务监督,并将少部分目标细胞进行像素级精细标??注用于分割任务监督,实验结果表明即使在少量精细标注的前提下也可以学到??较为理想的实例分割效果。Qu等人[24]在[25]基于点标注的弱监督分割算法基??础上,对图像中的少部分细胞进行像素级的精细标注,然后利用该标注对网络作??进一步微调优化,可以在较低额外标注成本的条件下获得一定分割性能的提升。??虽然上边这些方法都在一定程度上减轻了人工标注的负担,但是它们仍然或??多或少地依赖精细的、像素级别的标注,近期有越来越多的工作提出只需要利用??点标注的弱监督细胞分割算法[25-28]。其中N
【参考文献】:
期刊论文
[1]Scalable volumetric imaging for ultrahigh-speed brain mapping at synaptic resolution[J]. Hao Wang,Qingyuan Zhu,Lufeng Ding,Yan Shen,Chao-Yu Yang,Fang Xu,Chang Shu,Yujie Guo,Zhiwei Xiong,Qinghong Shan,Fan Jia,Peng Su,Qian-Ru Yang,Bing Li,Yuxiao Cheng,Xiaobin He,Xi Chen,Feng Wu,Jiang-Ning Zhou,Fuqiang Xu,Hua Han,Pak-Ming Lau,Guo-Qiang Bi. National Science Review. 2019(05)
本文编号:3309412
本文链接:https://www.wllwen.com/shoufeilunwen/mpalunwen/3309412.html