一种未知家庭环境下服务机器人高效物品搜索方法
发布时间:2021-06-22 06:34
家庭环境下,服务机器人物品搜索是执行物品传送、抓取等任务的重要基础和前提,对提高机器人智能化水平和服务能力具有重大意义。目前,针对家庭环境下服务机器人物品搜索的研究,大多采用构建环境语义地图进行物品搜索的方法,但是由于不同家庭环境存在差异,面对未知家庭环境需要重新构建语义地图来获取物品信息,这降低了机器人物品搜索的效率和适应性。为了解决这个问题,本文以未知家庭环境为应用背景,对服务机器人物品搜索问题展开深入研究,以物品搜索先验知识为指导,以家庭室内场景识别模型和物品检测模型为工具,提出了一种未知家庭环境下服务机器人高效物品搜索方法。服务机器人根据目标物品在家庭物品搜索知识库中进行查询,得到关于目标的场景知识和物品知识;在场景知识的指导下,通过室内场景识别模型机器人完成目标场景的识别,以此来缩小搜索空间;在目标场景中,机器人在物品知识的指导下使用物品检测模型检测到目标物品,完成物品搜索任务。本文的研究内容和创新之处如下:1、构建了家庭物品搜索知识库,可为服务机器人执行物品搜索提供物品共现知识和物品场景共现知识,在提高未知家庭环境下物品搜索效率的同时,还能够满足不同家庭环境下物品搜索的要求...
【文章来源】:山东大学山东省 211工程院校 985工程院校 教育部直属院校
【文章页数】:85 页
【学位级别】:硕士
【部分图文】:
图1-2场景识别图片(左)与图像分类图片(右)??
其中仏表示被搜索的目标物品,表示目标的共现物品,P(0t|0e)表示以共现物品??〇c为线索找到目标物品0t的概率。一般情况下,一个目标物品往往对应多个共现物??品,例如图2-1中物品0;对应的共现物品有〇2、C^、ft、〇6,会产生4个条件概??率值,从中选出最大概率值所对应的物品作为最优共现物品,该选取策略用公式??(2-2)来进行表示:??0Cb?=?argmax[P(_Ot\〇i)],?〇i?E?Oc?(2-2)??其中Oe?=?OJ表示与Ot存在共现关系的所有物品。使用概率值越大的共现??物品作为线索,搜索到目标物品的可能性越大。??图2-1物品共现关系的图模型??2.2物品场景共现关系描述??在单一密闭的空间内,仅依据物品共现关系服务机器人可以较好地完成物品搜??索任务。但是在复杂的家庭环境下往往存在多不同的家庭场景,如卧室、客厅、餐??厅、厨房、书房、卫生间等,因此机器人执行物品搜索任务需要考虑家庭场景产生??的影响,特别是当机器人的起始位置与目标物品不在同一场景内时,仅利用物品共??现关系往往难以高效地完成物品搜索任务
(3)知识自动生成:自动生成物品共现知识与物品场景共现知识;??(4)知识存储与更新:使用“.CSV”文件储存生成的知识,同时基于权重的??方法知识库能够进行更新。??2.3.1?Open?Images?V4?与数据处理??谷歌公司于2018年4月30日公开发布了?Open?Images?V451]数据集,该数据集??拥有9,178,275张带有标注的图片,这些标注信息包含30,113,078个图片标签、??15,440,132个边界框标签和374,768个视觉关系元组,其中图片标签有19,794类,??边界框标签有600种不同物品。表2-1给出了关于边界框标注的数量信息。如此多??的标注信息使得Open?Images?V4成为现在最大规模的具有物品位置标注的数据集,??每张图片平均有8个带有标注的物品框,充分表现了该数据集图像的复杂性和物品??标注信息的丰富性。图2-4展示了该数据集不同的标注信息和不同的应用领域,图??像层面的标注是用于图像分类,而带有物品标记框的用于物品检测。??表2-1?Open?Images?V4数据集边界框标注的数量信息??
【参考文献】:
期刊论文
[1]一种基于CLM的服务机器人室内功能区分类方法[J]. 吴培良,李亚南,杨芳,孔令富,侯增广. 机器人. 2018(02)
[2]基于云的语义库设计及机器人语义地图构建[J]. 于金山,吴皓,田国会,薛英花,赵贵祥. 机器人. 2016(04)
[3]一种融合全局及显著性区域特征的室内场景识别方法[J]. 牛杰,卜雄洙,钱堃,李众. 机器人. 2015(01)
硕士论文
[1]家庭服务机器人系统服务目标搜索研究[D]. 张洋.燕山大学 2014
本文编号:3242332
【文章来源】:山东大学山东省 211工程院校 985工程院校 教育部直属院校
【文章页数】:85 页
【学位级别】:硕士
【部分图文】:
图1-2场景识别图片(左)与图像分类图片(右)??
其中仏表示被搜索的目标物品,表示目标的共现物品,P(0t|0e)表示以共现物品??〇c为线索找到目标物品0t的概率。一般情况下,一个目标物品往往对应多个共现物??品,例如图2-1中物品0;对应的共现物品有〇2、C^、ft、〇6,会产生4个条件概??率值,从中选出最大概率值所对应的物品作为最优共现物品,该选取策略用公式??(2-2)来进行表示:??0Cb?=?argmax[P(_Ot\〇i)],?〇i?E?Oc?(2-2)??其中Oe?=?OJ表示与Ot存在共现关系的所有物品。使用概率值越大的共现??物品作为线索,搜索到目标物品的可能性越大。??图2-1物品共现关系的图模型??2.2物品场景共现关系描述??在单一密闭的空间内,仅依据物品共现关系服务机器人可以较好地完成物品搜??索任务。但是在复杂的家庭环境下往往存在多不同的家庭场景,如卧室、客厅、餐??厅、厨房、书房、卫生间等,因此机器人执行物品搜索任务需要考虑家庭场景产生??的影响,特别是当机器人的起始位置与目标物品不在同一场景内时,仅利用物品共??现关系往往难以高效地完成物品搜索任务
(3)知识自动生成:自动生成物品共现知识与物品场景共现知识;??(4)知识存储与更新:使用“.CSV”文件储存生成的知识,同时基于权重的??方法知识库能够进行更新。??2.3.1?Open?Images?V4?与数据处理??谷歌公司于2018年4月30日公开发布了?Open?Images?V451]数据集,该数据集??拥有9,178,275张带有标注的图片,这些标注信息包含30,113,078个图片标签、??15,440,132个边界框标签和374,768个视觉关系元组,其中图片标签有19,794类,??边界框标签有600种不同物品。表2-1给出了关于边界框标注的数量信息。如此多??的标注信息使得Open?Images?V4成为现在最大规模的具有物品位置标注的数据集,??每张图片平均有8个带有标注的物品框,充分表现了该数据集图像的复杂性和物品??标注信息的丰富性。图2-4展示了该数据集不同的标注信息和不同的应用领域,图??像层面的标注是用于图像分类,而带有物品标记框的用于物品检测。??表2-1?Open?Images?V4数据集边界框标注的数量信息??
【参考文献】:
期刊论文
[1]一种基于CLM的服务机器人室内功能区分类方法[J]. 吴培良,李亚南,杨芳,孔令富,侯增广. 机器人. 2018(02)
[2]基于云的语义库设计及机器人语义地图构建[J]. 于金山,吴皓,田国会,薛英花,赵贵祥. 机器人. 2016(04)
[3]一种融合全局及显著性区域特征的室内场景识别方法[J]. 牛杰,卜雄洙,钱堃,李众. 机器人. 2015(01)
硕士论文
[1]家庭服务机器人系统服务目标搜索研究[D]. 张洋.燕山大学 2014
本文编号:3242332
本文链接:https://www.wllwen.com/kejilunwen/sousuoyinqinglunwen/3242332.html