基于全卷积神经网络的全向场景分割研究与算法实现
发布时间:2017-12-11 13:38
本文关键词:基于全卷积神经网络的全向场景分割研究与算法实现
【摘要】:随着计算机性能的跨越式提高和大数据时代的来临,深度学习受到了各界越来越广泛的关注。它能够将低级特征进行组合,形成更为抽象的高级特征,对数据进行更为本质的刻画,因此被广泛应用到了计算机视觉、文本翻译、模式识别、搜索推荐等各个领域。卷积神经网络(CNN)是深度神经网络的一种,它具有稀疏连接、参数共享的特点,可以自动提取特征,主要应用于二维图像的识别,能够实现图像级别的分类。而全卷积网络(FCN)是CNN的发展和延伸,它除了具有卷积神经网络的一般特点外,还有全卷积化、上采样、跳跃结构等一系列特征。全卷积网络能够预测每个像素点的语义标签,可以实现像素级别的分类,从而对图像进行场景分割。论文探讨了 CNN与FCN的网络结构,工作原理以及各自特点,比较了两种网络之间的区别。为了实现全向场景的分割,本文在原有的FCN图像分割的基础上引入了全景图像,详细分析了全景图像的种类、特点、应用场景以及对分割效果的影响,并论述了由普通图像合成球面全景图像的具体方法;为了进一步地提高全向场景分割的效果,我们对基于FCN的网络结构进行改进,最终将全景图像与改进网络相结合,提高了网络对边缘和细节部分的处理能力,实现了更准确的全向场景分割。本文的主要创新点在于:一是引入全景图像,将同一场景的普通图像合成为球面全景图,作为神经网络的数据输入。球面全景图像具有更为广阔的视野,能够完全覆盖周边环境,在提供全向场景信息的同时,增强了图像中物体的整体性,有助于网络提取更具有代表性的特征。二是在FCN的基础上对网络的结构进行改进,设计上下两层网络,并行输入RGB图像和深度图像。上层对RGB图像进行处理,获得整体空间架构;下层将深度图像作为约束,充分利用深度图像简洁,轮廓特征明显的特点,通过卷积网络提取相对精细的外部几何特征。将同一场景、不同类型、不同层次的特征图相结合,提高图像场景分割的精确度。
【学位授予单位】:山东大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP391.41;TP183
【相似文献】
中国期刊全文数据库 前10条
1 王学军;丁红涛;陈贺新;;一种基于镜头聚类的视频场景分割方法[J];中国图象图形学报;2007年12期
2 张浩峰;业巧林;赵春霞;杨静宇;;一种非监督道路场景分割方法[J];南京理工大学学报;2012年02期
3 曹建荣;;一种基于语义的视频场景分割算法[J];中国图象图形学报;2006年11期
4 郭小川;刘明杰;王婧璐;董道国;万乾荣;;基于频繁镜头集合的视频场景分割方法[J];计算机应用与软件;2011年06期
5 刘晓杰;晋卓;宋占伟;张e,
本文编号:1278680
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/1278680.html