当前位置:主页 > 科技论文 > 软件论文 >

面向RGB-D场景解析的三维空间结构化编码深度网络

发布时间:2022-02-24 07:43
  有效的RGB-D图像特征提取和准确的3D空间结构化学习是提升RGB-D场景解析结果的关键。目前,全卷积神经网络(FCNN)具有强大的特征提取能力,但是,该网络无法充分地学习3D空间结构化信息。为此,提出了一种新颖的三维空间结构化编码深度网络,内嵌的结构化学习层有机地结合了图模型网络和空间结构化编码算法。该算法能够比较准确地学习和描述物体所处3D空间的物体分布。通过该深度网络,不仅能够提取包含多层形状和深度信息的分层视觉特征(HVF)和分层深度特征(HDF),而且可以生成包含3D结构化信息的空间关系特征,进而得到融合上述3类特征的混合特征,从而能够更准确地表达RGB-D图像的语义信息。实验结果表明,在NYUDv2和SUNRGBD标准RGB-D数据集上,该深度网络较现有先进的场景解析方法能够显著提升RGB-D场景解析的结果。 

【文章来源】:计算机应用. 2017,37(12)北大核心CSCD

【文章页数】:9 页

【文章目录】:
0 引言
1 三维空间结构化编码深度网络
    1.1 特征提取层
        1.1.1 全卷积神经网络
        1.1.2 超像素分割
    1.2 结构化学习层
        1.2.1 条件随机场
        1.2.2 空间结构化编码算法
    1.3 特征融合层
        1.3.1 深度置信网络
        1.3.2 特征融合学习
2 实验结果与分析
    2.1 实验设置
    2.2 NYUDv2
    2.3 SUNRGBD
3 结语


【参考文献】:
期刊论文
[1]改进的卷积神经网络行人检测方法[J]. 徐超,闫胜业.  计算机应用. 2017(06)
[2]基于Hadoop的超像素分割算法[J]. 王春波,董红斌,印桂生,刘文杰.  计算机应用. 2016(11)
[3]一种双层条件随机场的场景解析方法[J]. 李艳丽,周忠,吴威.  计算机学报. 2013(09)



本文编号:3642281

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3642281.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户0e4db***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com