基于Hadoop的超像素分割算法
发布时间:2017-06-20 06:07
本文关键词:基于Hadoop的超像素分割算法,由笔耕文化传播整理发布。
【摘要】:针对高分辨率图像像素分割时间复杂度高的问题,提出了超像素分割算法。采用超像素代替原始的像素作为分割的处理基元,将Hadoop分布式的特点与超像素的分块相结合。在分片过程中提出了基于多任务的静态与动态结合的适应性算法,使得Hadoop分布式文件系统(HDFS)的分块与任务分发的基元解耦;在每一个Map节点任务中,基于超像素分块的边界性对超像素的形成在距离和梯度上进行约束,提出了基于分水岭的并行化分割算法。在Shuffle过程的超像素块间合并中提出了两种合并策略,并进行了比较。在Reduce节点任务中优化了超像素块内合并,完成最终的分割。实验结果表明.所提算法在边缘查全率(BR)和欠分割错误率(UR)等分割质量指标上优于简单线性迭代聚类(SLIC)算法和标准分割(Ncut)算法,在高分辨率图像的分割时间上有显著降低。
【作者单位】: 哈尔滨工程大学计算机科学与技术学院;
【关键词】: Hadoop 图像分割 超像素 并行算法 MapReduce
【基金】:国家自然科学基金资助项目(61472095,41306086);国家自然科学基金青年科学基金资助项目(61502116) 黑龙江省教育厅智能教育与信息工程重点实验室开放基金资助项目~~
【分类号】:TP391.41
【正文快照】: 0引言在世界多元化发展的背景下,互联网技术在各个方面都为人们的生活带来了便利。图形图像作为人类与计算机交互最为直观、便捷的方式,其相应的处理以及识别分析能力直接会影响到人们的感官体验,而图像分割作为连接图像处理与图像识别、图像分析的桥梁,也会为接下来的后续使
本文关键词:基于Hadoop的超像素分割算法,,由笔耕文化传播整理发布。
本文编号:464719
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/464719.html