基于RSOM的两阶段移动机器人闭环检测算法
发布时间:2022-05-12 17:59
针对移动机器人在自主定位时出现的感知混淆和定位误差问题,提出一种基于递归自组织特征映射RSOM聚类树的移动机器人闭环检测算法。首先采用属性图模型对图像对进行相似性度量,通过对连续采集的图像序列进行分组和增量学习对不同场景进行路标建设。然后将路标中的向量投影至RSOM的各叶节点中,同时对各路标进行权值更新。最后,新算法通过两阶段检测对闭环进行判定。在第一阶段,算法利用RSOM树的快速检索能力对采集图像进行最近邻路标检索并判断该路标是否为待检测路标;在第二阶段,算法将待检测路标内所包含的所有属性图依次与采集图像进行相似性度量,最后结合阈值加权结果进行闭环检测判定。实验结果表明,该算法受环境中动态目标的影响较小,在能取得较高的召回率和准确度的同时,定位精度大幅提升。
【文章页数】:7 页
【部分图文】:
路标生成流程图
相似度,直到Ci中第x张属性图Gix与Ci+1的模板属性图Gn有R(Gix,Gn)<TR(TR为阈值),且对第x+1张属性图Gi(x+1)有R(Gi(x+1),Gq)≥TR时,Ci中在Gi(x+1)之后采集的所有属性图将从Ci中删除。由于Ci中与Ci+1的模板属性图Gn采集间隔越近的属性图将与Gn相似度越高,因此,采用上述方法可快速剔除那些Ci中与Gn相似度较高的属性图。2.2路标生成为了精确描述机器人访问的每个场景,算法将基于RSOM树建立各场景路标。RSOM聚类树为如图2所示的以基本自组织特征映射(self-organizingmap,SOM)神经网络作为节点采用递归生长方法得到的SOM树模型,其叶结点均为128维向量。当Ci分组完成后,Ci内的各属性图的SIFT特征向量将被输入到已经训练好的RSOM树中学习,每个特征将投影到与其欧氏距离最小的叶节点中,这样来自不同图像但在同一叶结点中的特征向量就具有了近邻属性。具体算法流程在文献[16]中已具体阐述。图2RSOM聚类树模型Fig.2RSOMtreemodel当RSOM学习完Ci中所有属性图后,算法将依据式(2)投影得到的叶节点集投影频次进行降序排列,之后选取前K个叶节点向量的集合KC{}i作为初始路标码本Li,并将符合式(3)的图像存至路标LiG{}l中。KG{}l=Li|Li∈UGG{}l,Fq>Fq+1,q=1,2,…,{}k(2)LiG{}l=Gl|Glt∈KC{}i,Gl∈Cil=1,2,…,K,t=1,2,…,{}128(3)考虑到移动机器人运行在动态环境中,部分场景在不同时刻发生的变化以及分组时剔除的图像可能造成场景细节的丢失,从而导致闭环检测的漏检。为了精确描述地图中的
第2期宋思阳等:基于RSOM的两阶段移动机器人闭环检测算法477算法将结合属性图Gl的K近邻路标集KG{}l和各路标权值从RSOM树中寻找待检测路标;当找到待检测路标后,在第2阶段即图像匹配阶段,算法将属性图Gl与待检测路标内的属性图依次进行相似性度量,并最终判定闭环检测结果。检测流程如图3所示。图3闭环检测流程图Fig.3Theprocedureofloop-closuredetection3.1路标识别阶段图像检索是闭环检测的核心步骤,考虑到RSOM树在大规模图像检索领域的优异性能,本文将采用基于文献[16]中提出的训练方法训练得到RSOM聚类树来学习算法在运行过程中建立的各个路标码本,同时选取数据库中与采集图像的最相似的K个路标作为闭环候选路标。树中的叶节点中保存着分配到其中的SIFT描述向量,同时这些SIFT描述向量的路标编号也保存在这些叶节点中,并且聚类到同一个叶节点中的SIFT描述向量还具有近邻的特点。在闭环检测的第一阶段,算法将搜索输入图像的近邻路标码本,并从中选取待识别码本,具体步骤如下:步骤1:将输入属性图Gl的SIFT特征向量集U=Vtl,t=1,2,…,{}T投影到RSOM树的对应的叶节点中,并得到这些叶节点中所包含的路标标号和这些标号所对应的路标码本集UGG{}l。UGG{}l=Li|Ujq∈Li,Ujq∈WLU{}tl,Utl∈G{}l(5)式中:WLU{}tl是SIFT向量Utl投影到的叶节点。步骤2:依据式(2)对UGG{}l中的各标号进行频数统计,选取频数最高的K个标号所对应的路标码本作为图Gl的近邻路标码本集KG{}l。步骤3:将KG{}l内的路标码本Li=Ami,m=1,2,…,{}M,(i=1,2,…,K)依次与特征集U=Vt
【参考文献】:
期刊论文
[1]强跟踪平方根容积卡尔曼滤波SLAM算法[J]. 戴雪梅,郎朗,陈孟元. 电子测量与仪器学报. 2015(10)
[2]基于双目立体视觉的目标测距系统[J]. 沈彤,刘文波,王京. 电子测量技术. 2015(04)
[3]基于平方根容积机器人蒙特卡罗定位算法研究[J]. 朱奇光,张兴家,陈卫东,陈颖. 仪器仪表学报. 2015(04)
[4]惯导/双目视觉位姿估计算法研究[J]. 于永军,徐锦法,张梁,熊智. 仪器仪表学报. 2014(10)
[5]基于视觉词典的单目视觉闭环检测算法[J]. 梁志伟,陈燕燕,朱松豪,高翔,徐国政. 模式识别与人工智能. 2013(06)
[6]基于Hough空间的移动机器人全局定位算法[J]. 高翔,梁志伟,徐国政. 电子测量与仪器学报. 2012(06)
[7]基于单目视觉的轮式机器人同步定位与地图构建[J]. 弋英民,刘丁. 仪器仪表学报. 2010(01)
博士论文
[1]基于图像局部不变特征的类属超图构建与目标识别技术研究[D]. 刘建军.国防科学技术大学 2010
本文编号:3652745
【文章页数】:7 页
【部分图文】:
路标生成流程图
相似度,直到Ci中第x张属性图Gix与Ci+1的模板属性图Gn有R(Gix,Gn)<TR(TR为阈值),且对第x+1张属性图Gi(x+1)有R(Gi(x+1),Gq)≥TR时,Ci中在Gi(x+1)之后采集的所有属性图将从Ci中删除。由于Ci中与Ci+1的模板属性图Gn采集间隔越近的属性图将与Gn相似度越高,因此,采用上述方法可快速剔除那些Ci中与Gn相似度较高的属性图。2.2路标生成为了精确描述机器人访问的每个场景,算法将基于RSOM树建立各场景路标。RSOM聚类树为如图2所示的以基本自组织特征映射(self-organizingmap,SOM)神经网络作为节点采用递归生长方法得到的SOM树模型,其叶结点均为128维向量。当Ci分组完成后,Ci内的各属性图的SIFT特征向量将被输入到已经训练好的RSOM树中学习,每个特征将投影到与其欧氏距离最小的叶节点中,这样来自不同图像但在同一叶结点中的特征向量就具有了近邻属性。具体算法流程在文献[16]中已具体阐述。图2RSOM聚类树模型Fig.2RSOMtreemodel当RSOM学习完Ci中所有属性图后,算法将依据式(2)投影得到的叶节点集投影频次进行降序排列,之后选取前K个叶节点向量的集合KC{}i作为初始路标码本Li,并将符合式(3)的图像存至路标LiG{}l中。KG{}l=Li|Li∈UGG{}l,Fq>Fq+1,q=1,2,…,{}k(2)LiG{}l=Gl|Glt∈KC{}i,Gl∈Cil=1,2,…,K,t=1,2,…,{}128(3)考虑到移动机器人运行在动态环境中,部分场景在不同时刻发生的变化以及分组时剔除的图像可能造成场景细节的丢失,从而导致闭环检测的漏检。为了精确描述地图中的
第2期宋思阳等:基于RSOM的两阶段移动机器人闭环检测算法477算法将结合属性图Gl的K近邻路标集KG{}l和各路标权值从RSOM树中寻找待检测路标;当找到待检测路标后,在第2阶段即图像匹配阶段,算法将属性图Gl与待检测路标内的属性图依次进行相似性度量,并最终判定闭环检测结果。检测流程如图3所示。图3闭环检测流程图Fig.3Theprocedureofloop-closuredetection3.1路标识别阶段图像检索是闭环检测的核心步骤,考虑到RSOM树在大规模图像检索领域的优异性能,本文将采用基于文献[16]中提出的训练方法训练得到RSOM聚类树来学习算法在运行过程中建立的各个路标码本,同时选取数据库中与采集图像的最相似的K个路标作为闭环候选路标。树中的叶节点中保存着分配到其中的SIFT描述向量,同时这些SIFT描述向量的路标编号也保存在这些叶节点中,并且聚类到同一个叶节点中的SIFT描述向量还具有近邻的特点。在闭环检测的第一阶段,算法将搜索输入图像的近邻路标码本,并从中选取待识别码本,具体步骤如下:步骤1:将输入属性图Gl的SIFT特征向量集U=Vtl,t=1,2,…,{}T投影到RSOM树的对应的叶节点中,并得到这些叶节点中所包含的路标标号和这些标号所对应的路标码本集UGG{}l。UGG{}l=Li|Ujq∈Li,Ujq∈WLU{}tl,Utl∈G{}l(5)式中:WLU{}tl是SIFT向量Utl投影到的叶节点。步骤2:依据式(2)对UGG{}l中的各标号进行频数统计,选取频数最高的K个标号所对应的路标码本作为图Gl的近邻路标码本集KG{}l。步骤3:将KG{}l内的路标码本Li=Ami,m=1,2,…,{}M,(i=1,2,…,K)依次与特征集U=Vt
【参考文献】:
期刊论文
[1]强跟踪平方根容积卡尔曼滤波SLAM算法[J]. 戴雪梅,郎朗,陈孟元. 电子测量与仪器学报. 2015(10)
[2]基于双目立体视觉的目标测距系统[J]. 沈彤,刘文波,王京. 电子测量技术. 2015(04)
[3]基于平方根容积机器人蒙特卡罗定位算法研究[J]. 朱奇光,张兴家,陈卫东,陈颖. 仪器仪表学报. 2015(04)
[4]惯导/双目视觉位姿估计算法研究[J]. 于永军,徐锦法,张梁,熊智. 仪器仪表学报. 2014(10)
[5]基于视觉词典的单目视觉闭环检测算法[J]. 梁志伟,陈燕燕,朱松豪,高翔,徐国政. 模式识别与人工智能. 2013(06)
[6]基于Hough空间的移动机器人全局定位算法[J]. 高翔,梁志伟,徐国政. 电子测量与仪器学报. 2012(06)
[7]基于单目视觉的轮式机器人同步定位与地图构建[J]. 弋英民,刘丁. 仪器仪表学报. 2010(01)
博士论文
[1]基于图像局部不变特征的类属超图构建与目标识别技术研究[D]. 刘建军.国防科学技术大学 2010
本文编号:3652745
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3652745.html