交互式图像目标鲁棒提取算法研究
发布时间:2021-01-27 15:06
图像、视频的目标提取技术在素材编辑任务扮演着重要的角色。用户通过目标提取算法从素材中获得需要的对象,并应用相关的后期处理技术,实现素材的重复利用。然而,当处理具有复杂场景的图像时,图像中可能包含颜色相近似的前/背景区域、前/背景区域内部均包含强图像边缘、物体边界模糊、光照变化和阴影等现象,现有的交互式图像目标提取方法则需要用户提供大量人工干预才能获得高精度的分割结果,导致时间效率低下。本文对现有的图像目标提取方法进行了较为深入的分析和介绍,对其中所存在难点和问题进行了探讨。针对基于图割算法的交互式图像目标提取方法效率较低且在复杂自然场景下精度不高的问题,本文提出了一种基于双边空间和置信颜色模型的快速图像鲁棒分割方法。首先使用分辨率明显低于输入图像的双边网格重采样输入图像,极大地减少待处理的图像数据量;其次基于双边网格顶点构建图并定义图切割能量项,根据高斯分布规律定义未知颜色和二义颜色的辨别准则,以构建鲁棒的颜色模型;最后采用标准的最大流/最小割算法进行全局优化求解,实现高质量的图像前景提取。实验结果表明,该方法不仅能够在1s内提取出高分辨率图像满足实时性要求的、有意义目标物体,而且还实...
【文章来源】:长沙理工大学湖南省
【文章页数】:56 页
【学位级别】:硕士
【部分图文】:
图2.1图割示意图??
素,当/^々时??{p,q}eN??</义)=0否则</义)=1。4P,exP[—D)],当p和《灰度值越相似时,5{m!??的值越大,当p和g差别极大时就接近于0,即当两相邻像素灰度值差别很小时,??那么它们同时属于前景或背景的可能性更大;当两相邻像素灰度值差别越大时,则这两??个像素越有可能分别为前景和背景,此时更小,以鼓励将这两个像素的边分割开。??2.2.1?Lazy?Snapping?算法??Lazy?Snapping算法[11大致流程为,用户通过稀疏画笔方式进行交互,如图2.2所示,??在图像前景和背景区域输入一些线条(用黄色代表前景区域,蓝色代表背景区域),用户??可通过分割结果对目标边缘进行精确编辑以得到满意结果。Lazy?Snapping是基于Graph??Guts的改进方法,其与GmphCuts的主要不同在于它构图的顶点不再是基于像素,而是??基于一个个小的区域。其首先采用分水岭算法对图像进行预处理,从而将图像分割成很??多的小区域,然后以这些小区域为顶点,相邻区域建立边,构建一个图,再采用max-??flow/min-cut算法进行分割。??.??2.输入Rl?b.标记a标.?c.边缘调E?d.拢取结果??图2.2?Lazy?Snapping算法流程??同样,LazySnapping也是需要最小化能量函数五⑷^^及⑷+叫丄),其中,i?(Z)??为区域项,为边界项:??区域项=?先用k-meas算法将用户己标记的背景和前景像素??p在p??颜色分别聚类成64簇,对于一个没有标记的顶点,计算它的RGB颜色值到前景和??背景簇的最小距离<和<,然后求得&⑴=</(<?+?〇、八(〇)=1
硕士学位论文??“tabby?cat”??Pj|?1..?l.i?1,??卷枳??士丨一一??國??图2.4?FCN网络示意图??而FCN网络W是对图像进行像素级的分类,从而解决了语义级别的图像分割问??题。与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全??连接层+?softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最??后一个卷积层的特征图(featuremap)进行上采样,使它恢复到输入图像相同的尺寸,??从而可以对每个像素都产生了一个预测,同时保留了原始输入图像中的空间信息,最??后在上采样的特征图上进行逐像素分类。简单的来说,FCN将于CNN最后的全连接??层换成卷积层,可输出的是一张己经分类好的图片。如图2.4下半部分所示。??2.3.2深度交互目标提取方法??上一节提到的FCN网络主要应用于全自动的语义分割方法,Xu等14]将FCN网络进??行了扩展,提出了一种将交互式的前景目标提出方法DIOS?(Deep?Interactive?Object??Selection)。其方法需要用户分别少量点击图像中的前景与背景区域进行交互,同时这些??前景/背景交互点会计算转换为两个欧几里德距离图,然后将距离图与图像的RGB通道??连接以组成(图像、用户交互)对作为FCN网络的输入。作者提出了几种随机采样的策??略来模拟用户的交互点击,并可以自动生成大量的数据样本用来训练FCN网络。当FCN??网络训练完成后,对于任意用户交互过后的图片,FCN网络可以输出与图片相同尺寸的??概率图,概率图中的每个值表示图片中对应位置像素属于前景的概率,在概率图的基础??上,作者采
【参考文献】:
期刊论文
[1]卷积神经网络的宫颈细胞图像分类[J]. 赵越,曾立波,吴琼水. 计算机辅助设计与图形学学报. 2018(11)
[2]特征融合自适应目标跟踪[J]. 钟国崇,储珺,缪君. 图学学报. 2018(05)
[3]区间模糊谱聚类图像分割方法[J]. 刘汉强,张青. 计算机工程与科学. 2018(09)
[4]一种改进的Harris与SIFT算子结合的图像配准算法[J]. 尚明姝,王克朝. 微电子学与计算机. 2018(06)
[5]基于快速卷积神经网络的图像去模糊[J]. 任静静,方贤勇,陈尚文,汪粼波,周健. 计算机辅助设计与图形学学报. 2017(08)
[6]复杂光照下DPM图像自适应多阈值分割方法研究[J]. 王娟,王萍,刘敏. 计算机工程与应用. 2018(09)
[7]改进混合高斯模型的自适应烟雾图像分割算法[J]. 胡燕,王慧琴,马宗方. 计算机辅助设计与图形学学报. 2016(07)
[8]高斯混合模型改进的活动轮廓模型MRI分割[J]. 张建伟,夏德深. 计算机辅助设计与图形学学报. 2005(12)
本文编号:3003259
【文章来源】:长沙理工大学湖南省
【文章页数】:56 页
【学位级别】:硕士
【部分图文】:
图2.1图割示意图??
素,当/^々时??{p,q}eN??</义)=0否则</义)=1。4P,exP[—D)],当p和《灰度值越相似时,5{m!??的值越大,当p和g差别极大时就接近于0,即当两相邻像素灰度值差别很小时,??那么它们同时属于前景或背景的可能性更大;当两相邻像素灰度值差别越大时,则这两??个像素越有可能分别为前景和背景,此时更小,以鼓励将这两个像素的边分割开。??2.2.1?Lazy?Snapping?算法??Lazy?Snapping算法[11大致流程为,用户通过稀疏画笔方式进行交互,如图2.2所示,??在图像前景和背景区域输入一些线条(用黄色代表前景区域,蓝色代表背景区域),用户??可通过分割结果对目标边缘进行精确编辑以得到满意结果。Lazy?Snapping是基于Graph??Guts的改进方法,其与GmphCuts的主要不同在于它构图的顶点不再是基于像素,而是??基于一个个小的区域。其首先采用分水岭算法对图像进行预处理,从而将图像分割成很??多的小区域,然后以这些小区域为顶点,相邻区域建立边,构建一个图,再采用max-??flow/min-cut算法进行分割。??.??2.输入Rl?b.标记a标.?c.边缘调E?d.拢取结果??图2.2?Lazy?Snapping算法流程??同样,LazySnapping也是需要最小化能量函数五⑷^^及⑷+叫丄),其中,i?(Z)??为区域项,为边界项:??区域项=?先用k-meas算法将用户己标记的背景和前景像素??p在p??颜色分别聚类成64簇,对于一个没有标记的顶点,计算它的RGB颜色值到前景和??背景簇的最小距离<和<,然后求得&⑴=</(<?+?〇、八(〇)=1
硕士学位论文??“tabby?cat”??Pj|?1..?l.i?1,??卷枳??士丨一一??國??图2.4?FCN网络示意图??而FCN网络W是对图像进行像素级的分类,从而解决了语义级别的图像分割问??题。与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全??连接层+?softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最??后一个卷积层的特征图(featuremap)进行上采样,使它恢复到输入图像相同的尺寸,??从而可以对每个像素都产生了一个预测,同时保留了原始输入图像中的空间信息,最??后在上采样的特征图上进行逐像素分类。简单的来说,FCN将于CNN最后的全连接??层换成卷积层,可输出的是一张己经分类好的图片。如图2.4下半部分所示。??2.3.2深度交互目标提取方法??上一节提到的FCN网络主要应用于全自动的语义分割方法,Xu等14]将FCN网络进??行了扩展,提出了一种将交互式的前景目标提出方法DIOS?(Deep?Interactive?Object??Selection)。其方法需要用户分别少量点击图像中的前景与背景区域进行交互,同时这些??前景/背景交互点会计算转换为两个欧几里德距离图,然后将距离图与图像的RGB通道??连接以组成(图像、用户交互)对作为FCN网络的输入。作者提出了几种随机采样的策??略来模拟用户的交互点击,并可以自动生成大量的数据样本用来训练FCN网络。当FCN??网络训练完成后,对于任意用户交互过后的图片,FCN网络可以输出与图片相同尺寸的??概率图,概率图中的每个值表示图片中对应位置像素属于前景的概率,在概率图的基础??上,作者采
【参考文献】:
期刊论文
[1]卷积神经网络的宫颈细胞图像分类[J]. 赵越,曾立波,吴琼水. 计算机辅助设计与图形学学报. 2018(11)
[2]特征融合自适应目标跟踪[J]. 钟国崇,储珺,缪君. 图学学报. 2018(05)
[3]区间模糊谱聚类图像分割方法[J]. 刘汉强,张青. 计算机工程与科学. 2018(09)
[4]一种改进的Harris与SIFT算子结合的图像配准算法[J]. 尚明姝,王克朝. 微电子学与计算机. 2018(06)
[5]基于快速卷积神经网络的图像去模糊[J]. 任静静,方贤勇,陈尚文,汪粼波,周健. 计算机辅助设计与图形学学报. 2017(08)
[6]复杂光照下DPM图像自适应多阈值分割方法研究[J]. 王娟,王萍,刘敏. 计算机工程与应用. 2018(09)
[7]改进混合高斯模型的自适应烟雾图像分割算法[J]. 胡燕,王慧琴,马宗方. 计算机辅助设计与图形学学报. 2016(07)
[8]高斯混合模型改进的活动轮廓模型MRI分割[J]. 张建伟,夏德深. 计算机辅助设计与图形学学报. 2005(12)
本文编号:3003259
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3003259.html