多视图像增强的RGB-D室内高精度三维测图方法

发布时间:2017-12-20 13:21

  本文关键词:多视图像增强的RGB-D室内高精度三维测图方法 出处:《武汉大学》2017年博士论文 论文类型:学位论文


  更多相关文章: RGB-D传感器 3D SLAM 三维点云 室内三维测图 图优化


【摘要】:精细的室内三维测图已经成为支撑室内三维制图,室内定位导航及增强现实等应用的重要的技术手段。目前,常用的室内场景三维测图手段主要有激光扫描(Terrestrial Laser Scanning)和基于视觉图像序列的三维重建技术。激光扫描技术进行室内三维制图时需提前设置拍摄点和标靶,在复杂室内环境中容易出现场景细节丢失,数据采集不完整的问题,同时激光扫描设备价格昂贵,难以得到普及。基于视觉图像序列的三维重建技术可通过数码相机拍摄的二维图像序列来恢复室内三维场景,其丰富的视觉信息可很好的增强闭环检测。然而该方法建模时间长,而且在室内昏暗环境或者纹理匮乏区域工作不稳定。因此发展一种能够快速响应环境变化,便携性高,数据处理工序简单,高精度实时的三维制图的方法具有重要意义。近年来,RGB-D传感器,如Kinect和Structure Sensor,在室内即时定位与地图构建应用上被广泛使用。其主要的优势是可实时获取和更新三维空间信息,且具有极大的便携性和低成本特性。本文利用RGB-D传感器,提出一种多视图像增强的RGB-D室内高精度三维测图方法。该方法分为两部分,一部分是RGB-D三维SLAM方案,一部分是基于RGB-D点云的三维重建。RGB-D三维SLAM部分,在高精度相机校正基础上,针对视觉SLAM累积误差问题,本文深入分析RGB-D传感器深度和视觉图像数据特点,联合视觉特征和几何特征,提出从粗到细的RGB-D 3D SLAM方法。针对RGB-D相机深度传感器量测距离和视角局限性导致远距离,大范围室内场景三维建模困难问题,提出二三维特征点联合的光束法平差优化方法来恢复RGB图像序列相机姿态,用以恢复远距离三维结构,有效弥补深度传感器的缺陷,实现近远距离三维场景无缝融合。基于RGB-D点云的室内三维重建方面,本文深入分析RGB-D传感器数据采集及数据集特点,提出知识约束的RGB-D点云三维重建方法,可实现室内基本组件快速建模。大幅度降低人工建模成本,提高RGB-D传感器建模效率。具体研究内容包括:1.提出高精度RGB-D多传感器校正方法。一方面深入分析RGB-D设备工作原理,实现RGB-D传感器深度相机和RGB相机同步校正,获取对应相机的内外方位元素。另一方面,对RGB-D深度数据误差进行分析,构建深度信息误差模型,实现RGB-D深度数据高精度校正,提高深度数据精度。2.提出视觉与几何特征融合的RGB-D即时定位与地图构建(3D SLAM)方法。在相机追踪方面,该方法考虑深度数据测量误差的不确定性,基于高精度RGB-D深度校正模型,根据特征点量测精度对不同深度下的特征点赋权,调整其在相机追踪算法中的贡献。针对纹理稀疏区域,创新性的提出三维线要素描述算子,采用三维线匹配方法优化相机姿态,解决纹理匮乏区域相机追踪问题;全局优化方法中,基于视觉的闭环检测,相机姿态约束的闭环检测,知识约束的闭环检测联合的闭环检测方案被用于检测闭环约束,构建图优化模型。同时考虑到相机追踪时产生的随机误差,采用边界权重的图优化算法,该算法对不同类型的闭环约束赋予不同的权重,降低闭环误差的不确定性,进而提高算法收敛度,有效降低累积误差。3.提出二三维特征点联合的光束法平差优化方法。针对RGB-D相机深度传感器量测距离和视角局限性导致远距离,大范围室内场景三维建模困难问题,本方法拟将RGB-D传感器同步获取的RGB图像序列用于远距离场景恢复,提出二三维特征点联合的光束法平差优化方法来恢复RGB图像序列相机姿态,该算法在相机校正的基础上,将RGB-D SLAM获取的深度相机姿态作为RGB相机初始姿态,将特征点分为二维特征点及三维特征点,通过迭代优化两类特征点的总投影误差优化RGB相机轨迹。该方法可进一步优化相机姿态,在长距离相机追踪情况下可有效减少累积误差。4.提出知识约束的RGB-D点云三维建模方法。针对手工室内三维建模费时费力问题,深入分析RGB-D传感器数据采集及数据集特点,在数据采集阶段,通过交互式定义的方式对特定数据帧赋予特定语义信息,该语义信息可降低在组件提取复杂度;,在组件提取方面,针对室内空间要素,如墙面,地板,天花板,考虑到RGB-D点云容易存在漏洞,数据完整性不高,采用三维-二维-三维的方式获取室内轮廓,针对门窗要素,采用基于色彩的点云分类方法实现门窗要素快速提取。本文提出的室内重建方法可大幅度降低人工建模成本,提高RGB-D传感器建模效率。本文以TUM公开的Kinect v1 RGB-D数据集及Structure Sensor数据集作为实验数据,部分Lidar点云作为绝对精度评估参考数据。为验证本文提出多视图像融合的RGB-D室内三维测图方法的精度及有效性,分别从相机轨迹精度,点云绝对精度,远近场景融合,及RGB-D点云三维重建能力四方面进行精度评估。通过与现有主流RGB-D SLAM算法获取的对比,结果显示本文提出的3D SLAM系统获取的相机轨迹精度更高且能适应不同环境变化。将RGB-D获取的点云与激光点云对比,实验结果显示在0-50m2范围内,本文的3D SLAM方案获取的RGB-D点云平均误差在1cm以内,在0-70m2范围内,点云平均误差在5cm以下。通过近远距离三维场景融合实验,结果显示二三维特征点融合的光束法平差优化方法可进一步优化相机轨迹,降低累积误差,且可用于SFM恢复远距离场景可有效弥补深度传感器量测距离短的缺陷。RGB-D室内三维重建方面,实验结果显示本文提出的知识约束的RGB-D点云重建方法可准确恢复出墙面,天花板,地板,门窗等室内组建。
【学位授予单位】:武汉大学
【学位级别】:博士
【学位授予年份】:2017
【分类号】:TP391.41

【参考文献】

中国期刊全文数据库 前3条

1 付梦印;吕宪伟;刘彤;杨毅;李星河;李玉;;基于RGB-D数据的实时SLAM算法[J];机器人;2015年06期

2 全思博;李伟光;郑少华;;基于RGB-D传感器的车间三维场景建模[J];华南理工大学学报(自然科学版);2015年06期

3 贾松敏;王可;郭兵;李秀智;;基于RGB-D相机的移动机器人三维SLAM[J];华中科技大学学报(自然科学版);2014年01期



本文编号:1312237

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/1312237.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户a4d64***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com