基于深度学习和深度相机的移动机器人抓取方法研究
发布时间:2021-11-20 11:12
目前,无论是在日常生活还是工业上,自动化技术都在朝着智能化的方向快速发展。智能化的发展离不开智能的算法,也离不开其载体——机器人。拥有一个性能优越的视觉感知系统是机器人的智能化表现之一。近些年,随着计算机性能的提升,大数据以及机器学习技术得到了前所未有的发展,机器学习中的深度学习的方法也为传统机器视觉领域打开了一扇新的大门。尽管深度学习的目标检测算法已经日益成熟,但是将这种理论算法应用于实际机器人上的发展却相对缓慢。论文以移动机器人平台为载体,针对深度学习中的Faster R-CNN目标检测算法进行改进,建立了新的目标检测网络模型,此外,借助于深度相机提供的深度图像信息,实现了目标物体的抓取点定位。最后,在实际移动机器人上完成了指定目标的抓取任务。主要研究内容包括:深度学习中目标检测算法的理论研究;数据集中的标注真实框对训练目标检测网络的影响,并以此设计了自适应数据集的锚框选取算法;改进的Faster R-CNN目标检测网络模型的搭建与训练;以及基于深度相机的抓取点定位与位姿估计。论文首先对10类日常商品:牙刷、牙膏、薯片、饼干、牛奶、可乐、纸巾、洗发水、书、果汁制作了图像数据集,总共...
【文章来源】:长沙理工大学湖南省
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
图1.1亚马逊机器人挑战赛(左)与京东机器人挑战赛(右)??RFID二
?硕士学位论文???1.*賴fiur傭?2.?i?3?雌權屮独、y??will:?爾綱肅Jim?预测点进行找?J?J?"?M^5lJ?-?&???部搜索?出抓収点??JL?m?m?l?_P|?.?一?一,—一』mm:,??fcwN^I?? ̄f'??9i3??图1.2联合特征提取方法[AmauRamisa等人,2013]??设计一种特征描述,通过捕获这种特征描述的方式来处理图像信息,从而得知当前图像??内是否存在目标物体。??Jeremy?Maitin-Shepard丨川等人对毛巾这一对象进行了机器人识另丨J抓取的研究,针对??毛巾所采用的布料的几何特征,对毛巾的识别与抓取主要分为三个步骤:首先对图像进??行前景提取,仅获得毛巾的图像信息;然后根据图像灰度的不连续性判断出毛巾的边界??位置;最后通过随机抽样一致性算法(Random?Sample?Consensus,?RANSAC)对边界位??置的候选抓取点进行筛眩实验表明由于该方法是根据布料的几何特征设计的,因此对??材质的变化、大孝外观等方面的鲁棒性较好。??Amau尺3111丨53[32]等人构建了一个3D几何特征与物体外观相结合的特征算法,再通??过滑动窗口算法与支持向量机(Support?Vector?Machine,?SVM),使用提出的可抓取估??计方法选出最优抓取点。首先获取图像并使用测量深度直方图(Geodesic-Depth??Histogram,?GDH)来提取图像特征,接着使用基于逻辑回归检测的滑动窗口算法进行??分类,并将每个在概率图上独立预测的点进行聚类;然后使用SVM进行峰值检测与局??部搜索;最后通过最优的
梅隆大学的机器人研究院的Lerrel?Pinto与Abhinav?Gupta[33]分析了当前??使用人为标注数据集进行深度学习完成抓取任务的不足:1.?一种物体可以以多种方式被??机器人抓取,因此手动标注抓取位置是一个相当复杂的任务。2.人为标注的抓取位置往??往带有偏差。于是Lerrel?Pinto与Abhinav?Gupta尝试训练机器人来进行试错实验,与以??往不同的是,他们大幅度增加了训练数据集,在700个小时内由机器人的试错实验获取??r?聲通■T“i??n?物?^??图1.3训练卷积神经网络的部分数据集[Lerrel?Pinto与Abhinav?Gupta,2015】??7??
【参考文献】:
期刊论文
[1]基于RFID的车载定位定向技术研究与应用[J]. 陈思,仲启媛,谭立龙,王鹏,张彦涛. 火炮发射与控制学报. 2019(01)
[2]深度学习在智能机器人中的应用研究综述[J]. 龙慧,朱定局,田娟. 计算机科学. 2018(S2)
[3]基于图像处理的机器人控制系统的研究设计[J]. 罗朝辉,李丽宏,谭爽. 现代制造工程. 2018(10)
[4]一种融合稀疏几何特征与深度流的深度视觉SLAM算法[J]. 方正,赵世博,李昊来. 机器人. 2019(02)
[5]基于激光信息的移动机器人SLAM研究[J]. 柳俊城,李迪,翁潇文. 自动化与仪表. 2018(06)
[6]全球机器人市场统计数据分析[J]. 梁文莉. 机器人技术与应用. 2018(02)
[7]优化初始聚类中心及确定K值的K-means算法[J]. 蒋丽,薛善良. 计算机与数字工程. 2018(01)
[8]深度学习在目标视觉检测中的应用进展与展望[J]. 张慧,王坤峰,王飞跃. 自动化学报. 2017(08)
[9]智能制造——“中国制造2025”的主攻方向[J]. 周济. 中国机械工程. 2015(17)
[10]工业机器人的技术发展及其应用[J]. 骆敏舟,方健,赵江海. 机械制造与自动化. 2015(01)
硕士论文
[1]基于视觉导航的自动导引车设计与实现[D]. 赵博.山东大学 2017
本文编号:3507204
【文章来源】:长沙理工大学湖南省
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
图1.1亚马逊机器人挑战赛(左)与京东机器人挑战赛(右)??RFID二
?硕士学位论文???1.*賴fiur傭?2.?i?3?雌權屮独、y??will:?爾綱肅Jim?预测点进行找?J?J?"?M^5lJ?-?&???部搜索?出抓収点??JL?m?m?l?_P|?.?一?一,—一』mm:,??fcwN^I?? ̄f'??9i3??图1.2联合特征提取方法[AmauRamisa等人,2013]??设计一种特征描述,通过捕获这种特征描述的方式来处理图像信息,从而得知当前图像??内是否存在目标物体。??Jeremy?Maitin-Shepard丨川等人对毛巾这一对象进行了机器人识另丨J抓取的研究,针对??毛巾所采用的布料的几何特征,对毛巾的识别与抓取主要分为三个步骤:首先对图像进??行前景提取,仅获得毛巾的图像信息;然后根据图像灰度的不连续性判断出毛巾的边界??位置;最后通过随机抽样一致性算法(Random?Sample?Consensus,?RANSAC)对边界位??置的候选抓取点进行筛眩实验表明由于该方法是根据布料的几何特征设计的,因此对??材质的变化、大孝外观等方面的鲁棒性较好。??Amau尺3111丨53[32]等人构建了一个3D几何特征与物体外观相结合的特征算法,再通??过滑动窗口算法与支持向量机(Support?Vector?Machine,?SVM),使用提出的可抓取估??计方法选出最优抓取点。首先获取图像并使用测量深度直方图(Geodesic-Depth??Histogram,?GDH)来提取图像特征,接着使用基于逻辑回归检测的滑动窗口算法进行??分类,并将每个在概率图上独立预测的点进行聚类;然后使用SVM进行峰值检测与局??部搜索;最后通过最优的
梅隆大学的机器人研究院的Lerrel?Pinto与Abhinav?Gupta[33]分析了当前??使用人为标注数据集进行深度学习完成抓取任务的不足:1.?一种物体可以以多种方式被??机器人抓取,因此手动标注抓取位置是一个相当复杂的任务。2.人为标注的抓取位置往??往带有偏差。于是Lerrel?Pinto与Abhinav?Gupta尝试训练机器人来进行试错实验,与以??往不同的是,他们大幅度增加了训练数据集,在700个小时内由机器人的试错实验获取??r?聲通■T“i??n?物?^??图1.3训练卷积神经网络的部分数据集[Lerrel?Pinto与Abhinav?Gupta,2015】??7??
【参考文献】:
期刊论文
[1]基于RFID的车载定位定向技术研究与应用[J]. 陈思,仲启媛,谭立龙,王鹏,张彦涛. 火炮发射与控制学报. 2019(01)
[2]深度学习在智能机器人中的应用研究综述[J]. 龙慧,朱定局,田娟. 计算机科学. 2018(S2)
[3]基于图像处理的机器人控制系统的研究设计[J]. 罗朝辉,李丽宏,谭爽. 现代制造工程. 2018(10)
[4]一种融合稀疏几何特征与深度流的深度视觉SLAM算法[J]. 方正,赵世博,李昊来. 机器人. 2019(02)
[5]基于激光信息的移动机器人SLAM研究[J]. 柳俊城,李迪,翁潇文. 自动化与仪表. 2018(06)
[6]全球机器人市场统计数据分析[J]. 梁文莉. 机器人技术与应用. 2018(02)
[7]优化初始聚类中心及确定K值的K-means算法[J]. 蒋丽,薛善良. 计算机与数字工程. 2018(01)
[8]深度学习在目标视觉检测中的应用进展与展望[J]. 张慧,王坤峰,王飞跃. 自动化学报. 2017(08)
[9]智能制造——“中国制造2025”的主攻方向[J]. 周济. 中国机械工程. 2015(17)
[10]工业机器人的技术发展及其应用[J]. 骆敏舟,方健,赵江海. 机械制造与自动化. 2015(01)
硕士论文
[1]基于视觉导航的自动导引车设计与实现[D]. 赵博.山东大学 2017
本文编号:3507204
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3507204.html
最近更新
教材专著