当前位置:主页 > 科技论文 > 自动化论文 >

无人车场景的图像语义分割与语义SLAM研究

发布时间:2021-02-20 06:37
  图像的语义信息作为图像理解的重要信息,在无人车的场景理解和定位构图方面具有重要的指导作用。图像的语义分割是提取图像语义信息的常用技术,而随着卷积神经网络的发展,基于深度学习的方法已经超越了传统方法而成为图像语义分割的主流方法。无人车行驶过程中,夜间无光的场景相比于白天的场景更具有安全隐患。而不同于白天可见光成像设备采集的图像,夜间通过基于温度分布的红外热像仪获取的红外图像具有纹理信息少,噪点多,对比度低的特点,因此分割难度更大。利用深度学习的方法同时准确地实现对无人车白天和夜间场景下的图像语义分割,获取无人车周边环境的语义信息,能够扩展无人车的场景理解能力,有效地帮助无人车进行驾驶决策或指导无人车实现自身的定位和环境构图。视觉同步定位与地图创建(Visual Simultaneous Localization and Mapping,VSLAM)技术随着机器视觉的发展,逐渐在无人车导航领域发挥着重要的作用。目前的VSLAM技术大多基于图像的低级特征或像素点,这不仅无法满足特征的长期不变和静态的需求,同时大量的冗余特征增加了地图存储的复杂度,因此对维护一个长期的地图十分不利。利用深度学习... 

【文章来源】:东华大学上海市 211工程院校 教育部直属院校

【文章页数】:74 页

【学位级别】:硕士

【部分图文】:

无人车场景的图像语义分割与语义SLAM研究


整体思路

无人车场景的图像语义分割与语义SLAM研究


CNN与FCN结构对比

网络结构图,特征图,卷积,模块


基础理论种平衡并不擅长,网络的池化层固然能保持一定的空间不变性和计算效率,但同时也丢失了上下文信息。即便是完全的卷积神经网络,不包含池化层,其感受野也只能随着网络的不断加深呈现线性增长。目前已有许多方法使得CNN对于全局信息敏感,如Decode模块、级联CRF、多尺度特征金字塔结构,或者是使用循环神经网络(RecurrentNeuralNetwork,RNN)实现对上下文信息的建模。2.2.1编码器-解码器架构早在FCN中,作者通过将不同的网络降采样过程中的低级特征图融入反卷积结果形成了FCN-8s、FCN-16s、FCN-32s的体系结构改善了分割结果,如图2.2所示,这一做法为Encode-Decode架构的形成提供了启发。图2.2FCN网络结构图SegNet是Encode-Decode架构的经典方法,其Decode模块由一组上采样层和卷积层组成,最后由Softmax分类器来预测与输入图像具有相同分辨率的像素级分类结果图。如图2.3所示,Decode模块中的每个上采样层对应着Encode模块的最大池化层,并且使用最大池化时的索引对Decode模块的特征图进行上采样,然后对上采样的特征图进行卷积操作,生成稠密的特征图。当上采样到原输入图的分辨率时,将其输入到Softmax分类器中获得最终的分割结果。12

【参考文献】:
期刊论文
[1]基于深度学习的无人车夜视图像语义分割[J]. 高凯珺,孙韶媛,姚广顺,赵海涛.  应用光学. 2017(03)

博士论文
[1]基于深度学习的红外图像语义分割技术研究[D]. 王晨.中国科学院大学(中国科学院上海技术物理研究所) 2017



本文编号:3042386

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3042386.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户a061d***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com