当前位置:主页 > 科技论文 > 软件论文 >

基于旋转投影二进制描述符的空间目标位姿估计

发布时间:2018-03-20 23:24

  本文选题:空间目标 切入点:位姿估计 出处:《光学精密工程》2017年11期  论文类型:期刊论文


【摘要】:为了实现基于点云的空间目标相对位姿快速估计,提出一种旋转投影二进制描述符(BRoPH)。该描述符首先建立特征点处的局部参考坐标系,然后通过旋转投影局部点云生成不同视角下的密度图像块和深度图像块,最后根据图像块生成特征点的多尺度二进制字符串。针对位姿估计对实时性的要求,在分析BRoPH Hamming距离分布的基础上,提出了基于Hamming距离阈值的特征匹配策略,用于剔除潜在的错误配对,加快位姿估计收敛速度。最后,在基于局部特征描述符位姿估计框架下分别与SHOT描述符和FPFH描述符进行了比较。结果表明:BRoPH描述符在仅需要SHOT和FPFH平均内存1/80的基础上,得到了远高于SHOT和FPFH的平均位姿估计精度,其平均姿态误差小于0.1°,平均位置误差小于1/180 R。此外,基于Hamming距离阈值的特征匹配策略使得BRoPH的位姿粗估计速度加快了7倍,总体位姿估计频率超过7Hz,比SHOT和FPFH分别快3~6.8倍。该方法具有占用内存小、计算速度快、位姿估计精度高和抗干扰能力强等优点,满足基于点云的空间目标位姿估计实时性要求。
[Abstract]:In order to estimate the relative position and orientation of spatial objects based on point cloud, a rotating projection binary descriptor (BRoPHG) is proposed. The local reference coordinate system at the feature points is established in the descriptor. Then the density image block and depth image block under different angle of view are generated by rotating projection local point cloud. Finally, the multi-scale binary string of feature points is generated according to the image block. Based on the analysis of BRoPH Hamming distance distribution, a feature matching strategy based on Hamming distance threshold is proposed to eliminate potential error pairs and speed up the convergence of pose estimation. Compared with SHOT descriptor and FPFH descriptor under the framework of local feature descriptor position and pose estimation, the result shows that the SHOT and FPFH average memory 1/80 are only needed in the SHOT descriptor. The average attitude error is less than 0. 1 掳and the average position error is less than 1/180 R. in addition, the feature matching strategy based on Hamming distance threshold accelerates the coarse estimation speed of BRoPH position and pose by 7 times. The total pose estimation frequency is more than 7 Hz, which is 36.8 times faster than SHOT and FPFH, respectively. This method has the advantages of small memory, fast computing speed, high precision of pose estimation and strong anti-interference ability. It can meet the real-time requirements of spatial target pose estimation based on point cloud.
【作者单位】: 清华大学自动化系;清华大学深圳研究生院;
【基金】:广东省自然科学基金资助项目(No.2014A030310318,No.2015A030313881) 深圳基础研究资金资助项目(No.JCYJ20140509172959962,No.JCYJ20160301153317415,No.JCYJ20160301100921349)
【分类号】:TP391.41

【相似文献】

相关期刊论文 前10条

1 许允喜;蒋云良;陈方;;基于点和直线段对应的扩展正交迭代位姿估计算法[J];光学学报;2009年11期

2 徐萧萧;王智灵;陈宗海;;视频序列中基于头肩分割的人体位姿估计算法[J];中国图象图形学报;2010年12期

3 张政;张小虎;傅丹;;一种高精度鲁棒的基于直线对应的位姿估计迭代算法[J];计算机应用;2008年02期

4 许允喜;蒋云良;陈方;;多摄像机系统位姿估计的广义正交迭代算法[J];光学学报;2009年01期

5 许允喜;蒋云良;陈方;刘勇;;基于点线对应的多摄像机全局位姿估计迭代算法[J];光子学报;2010年10期

6 郭军;董新民;王龙;;综合重构与正交迭代位姿估计算法[J];应用科学学报;2011年06期

7 马文娟;;结合分支定界法和线性规划的摄像机位姿估计[J];中国图象图形学报;2012年05期

8 朱枫;秦丽娟;谈大龙;;量化误差对直线位姿估计精度影响的研究[J];机器人;2007年04期

9 王晓剑;潘顺良;邱力为;沈为群;宋子善;;基于双平行线特征的位姿估计解析算法[J];仪器仪表学报;2008年03期

10 刘昶;朱枫;欧锦军;;基于三条相互垂直直线的单目位姿估计[J];模式识别与人工智能;2012年05期

相关会议论文 前1条

1 马景然;张涛;宋靖雁;;一种基于图像的空间目标器模拟装置的姿态控制系统[A];2007年中国智能自动化会议论文集[C];2007年

相关博士学位论文 前4条

1 江士雄;面向位姿估计的相机系统标定方法研究[D];华中科技大学;2016年

2 李鑫;基于视觉的位姿估计与点目标运动测量方法研究[D];国防科学技术大学;2015年

3 陈鹏;基于单目视觉的像机位姿估计技术[D];北京科技大学;2015年

4 王敏;复杂背景下的空间目标自动识别技术[D];中国科学院长春光学精密机械与物理研究所;2017年

相关硕士学位论文 前10条

1 宋昱慧;基于单目视觉的四旋翼无人机位姿估计与控制[D];哈尔滨工业大学;2016年

2 王亚彪;面向工业装配演示编程的零件识别与位姿估计[D];浙江大学;2016年

3 刘俊;基于单目视觉的物体位姿估计方法研究[D];哈尔滨工业大学;2016年

4 程伟;单相机光学三坐标测量系统的研究[D];上海大学;2016年

5 刘涛;基于电塔三维模型的飞行机器人单目视觉辅助定位[D];华北电力大学;2013年

6 申为峰;基于视觉的无人机自主着陆跑道识别与位姿估计[D];沈阳航空工业学院;2010年

7 张勇;基于合作目标的无人机位姿估计算法研究[D];南京航空航天大学;2010年

8 朱冬梅;无人机视觉着陆中的模糊图像恢复和位姿估计技术研究[D];南京航空航天大学;2009年

9 武建刚;增强现实中基于投影重建的目标位姿估计技术研究[D];华中科技大学;2007年

10 甘前超;基于DM6446的非合作目标位姿估计算法研究[D];哈尔滨工业大学;2011年



本文编号:1641252

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/1641252.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户6261f***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com