面向机器人操作的示教学习与智能控制方法研究
发布时间:2021-01-11 17:47
机器人操作的应用场景广泛、潜力巨大。但就现阶段而言大部分机器人部署在结构化环境中按照人工预定义的规则从事单一、重复和具有规律性的工作。如何结合人工智能与机器人技术,实现机器人对操作技能的理解、学习,而无需繁琐的手工编程与调试是提高机器人智能化水平、降低机器人使用门槛和部署周期、促进产业升级的重要途径。当前,随着人工智能技术的快速发展,机器人操作学习技术已成为机器人前沿领域的研究热点。基于上述研究背景,本学位论文主要研究如何让机器人理解学习任务操作中的基本运动,包括点到点运动、轨迹追踪运动、柔顺运动以及手眼协调运动等,有效解决了点到点运动学习快速性、精度与鲁棒性的权衡问题,轨迹追踪运动学习的泛化问题,柔顺运动中力位混合学习与模型参数递归更新问题等。总体而言,本论文主要研究内容与贡献如下:(1)提出了一种基于前馈神经网络的点对点运动学习框架,该方法采用了超限学习机对人类示教动作进行建模和学习,并通过将李雅普诺夫稳定性判据融入到神经网络最优化过程的约束条件中,以确保到点运动稳定收敛到期望位置。所提出的方法不仅能够提高学习的速度,还在复现中展示出较高的鲁棒性和精度,相比于其他方法具有结构简单、...
【文章来源】:中国科学院大学(中国科学院深圳先进技术研究院)广东省
【文章页数】:105 页
【学位级别】:博士
【部分图文】:
机器人轨迹追踪运动的两种典型应用场景
在之前的研究中,学者们大多采用机器人示教学习技术来建模轨迹生成策略,然后将策略模型用于任务执行中机器人运动轨迹的生成。例如动态运动基元(Dynamic movement primitives,DMP)[21,22],动态系统的稳定估计器(Stable estimator of dynamical systems,SEDS)方法[8,15],动态系统的快速稳定建模[57]等方法。然而,在实际应用中出现了两个问题:首先,这些方法以离线方式收集并建模机器人的运动轨迹,这些过程很耗时,有时甚至比手动编程耗时还要长,因此采用离线方式的RLfD技术优势在少批量多品种生产线中并不理想。其次,这些方法通常用于学习机器人的运动轨迹,然而单纯的位置控制器不足以实现精巧和柔顺的机器人操作[58]。柔顺操作任务不仅包含运动轨迹的生成,而且还需要与环境进行力交互,如图1.3所示。在该图中,红线表示一段机器人运动轨迹,带状椭圆形表示末端执行器和计算机屏幕之间的交互力。图中的Motion指的是在任务执行中生成的一条从起点到终点的运动轨迹。图中的Interaction指的是机器人与环境的相互作用是指机器人在其接触点/表面上动态调节机器人的柔顺行为(例如在必要时使机器人柔顺或僵硬)。因此,轨迹生成与柔顺等级调节这两项技能对于安全、成功地执行许多机器人任务至关重要。在图1.3所示的例子中,仅仅依靠机器人的位置控制来清洁计算机屏幕很难保证任务的成功完成,因为轻微的扰动就可能导致用力过大或用力不足,并最终导致屏幕破裂或无法擦除污垢。此外,日常中常见的操作任务很多都涉及接触或是需要对不可预见的扰动做出适当的反应,采用示教学习技术学习如何调整柔顺行为以满足任务需求仍是一个亟待解决的问题[59]。研究者们为了使得机器人具有满足任务要求的柔顺性,提出了很多解决方案:文献[60,61]根据传感器(人工触觉皮肤或力/扭矩传感器)获得的实时力/触反馈设计了相应的柔顺控制器。文献[62,63]通过减少机器人结构的重量和硬度或采用弹性元件设计来满足任务需求的柔顺行为,这类方法被称为被动柔顺控制。此外,一些研究者通过设计主动转矩控制策略来让机器人智能地产生柔顺行为[64–66]。由于主动柔顺控制方法的智能性和精确性[67],所以被认为是应用前景更为广泛的柔顺控制方法。阻抗控制可以通过在末端执行器上建立适当的虚拟质量弹簧阻尼器系统来调节机器人对相互作用力的动态响应[64]。与人体肢体阻抗调整相似,在任务执行中阻抗控制模型的参数应根据任务需求进行调整[68]。通过模仿人类行为的方式让机器人领会和学习阻抗变化曲线和技巧是一种行之有效的方法[69–72]。
与其他两类视觉伺服方法相比,基于图像的视觉伺服不需要进行3D的位姿估计,并且对深度估计误差具有鲁棒性。因此,本文拟在基于图像的视觉伺服框架下开展机器人视觉伺服的抓取操作学习研究,此外,为了避免机械臂抓取过程中对相机的遮挡问题,本文采用眼在手上(Eye-in-Hand)的机器人视觉伺服系统配置方式,如图1.4所示。视觉引导的机器人抓取操作是机器人应用中最基本、最常见的应用之一,是一个已被广泛研究且不断发展的领域。在之前的研究工作中很多聚焦在基于物体几何形状的抓取方法研究[84–86]和基于数据驱动的手指放置位置学习[87–92],更为全面的机器人抓取综述请参见文献[93]。本文并不研究基于物体几何形状的抓取规划问题,而是研究抓取的另一个方面,如何基于视觉反馈信息完成抓取的问题[94–96]。针对这个问题,在事先标定的情形下,研究者们提出了很多行之有效的基于视觉的机器人操作方法[83,97]。然而此类视觉伺服方法实现成功抓取的一个非常基础且关键的步骤是预先标定相机(亦即机器人的眼)与机器人(亦即机器人的手)坐标系之间的转换关系(图像雅克比矩阵),但是机器人视觉伺服系统标定通常较为繁琐,需要专门的标定环节和工具,因此研究无手眼标定下的伺服抓取是非常有意义的课题。
【参考文献】:
期刊论文
[1]机器人操作技能模型综述[J]. 秦方博,徐德. 自动化学报. 2019(08)
[2]机器人操作技能学习方法综述[J]. 刘乃军,鲁涛,蔡莹皓,王硕. 自动化学报. 2019(03)
[3]机器人无标定视觉伺服控制研究进展[J]. 陶波,龚泽宇,丁汉. 力学学报. 2016(04)
[4]基于ELM的机器人自适应跟踪控制[J]. 李军,乃永强. 电机与控制学报. 2015(04)
[5]基于自适应kalman滤波的机器人6DOF无标定视觉定位[J]. 辛菁,白蕾,刘丁. 系统仿真学报. 2014(03)
[6]采用SVR-雅可比估计器的焊接机器人视觉导引[J]. 李鹤喜,石永华,王国荣. 华南理工大学学报(自然科学版). 2013(07)
[7]带有时延补偿的图像雅可比矩阵估计方法[J]. 高振东,苏剑波. 控制理论与应用. 2009(01)
本文编号:2971215
【文章来源】:中国科学院大学(中国科学院深圳先进技术研究院)广东省
【文章页数】:105 页
【学位级别】:博士
【部分图文】:
机器人轨迹追踪运动的两种典型应用场景
在之前的研究中,学者们大多采用机器人示教学习技术来建模轨迹生成策略,然后将策略模型用于任务执行中机器人运动轨迹的生成。例如动态运动基元(Dynamic movement primitives,DMP)[21,22],动态系统的稳定估计器(Stable estimator of dynamical systems,SEDS)方法[8,15],动态系统的快速稳定建模[57]等方法。然而,在实际应用中出现了两个问题:首先,这些方法以离线方式收集并建模机器人的运动轨迹,这些过程很耗时,有时甚至比手动编程耗时还要长,因此采用离线方式的RLfD技术优势在少批量多品种生产线中并不理想。其次,这些方法通常用于学习机器人的运动轨迹,然而单纯的位置控制器不足以实现精巧和柔顺的机器人操作[58]。柔顺操作任务不仅包含运动轨迹的生成,而且还需要与环境进行力交互,如图1.3所示。在该图中,红线表示一段机器人运动轨迹,带状椭圆形表示末端执行器和计算机屏幕之间的交互力。图中的Motion指的是在任务执行中生成的一条从起点到终点的运动轨迹。图中的Interaction指的是机器人与环境的相互作用是指机器人在其接触点/表面上动态调节机器人的柔顺行为(例如在必要时使机器人柔顺或僵硬)。因此,轨迹生成与柔顺等级调节这两项技能对于安全、成功地执行许多机器人任务至关重要。在图1.3所示的例子中,仅仅依靠机器人的位置控制来清洁计算机屏幕很难保证任务的成功完成,因为轻微的扰动就可能导致用力过大或用力不足,并最终导致屏幕破裂或无法擦除污垢。此外,日常中常见的操作任务很多都涉及接触或是需要对不可预见的扰动做出适当的反应,采用示教学习技术学习如何调整柔顺行为以满足任务需求仍是一个亟待解决的问题[59]。研究者们为了使得机器人具有满足任务要求的柔顺性,提出了很多解决方案:文献[60,61]根据传感器(人工触觉皮肤或力/扭矩传感器)获得的实时力/触反馈设计了相应的柔顺控制器。文献[62,63]通过减少机器人结构的重量和硬度或采用弹性元件设计来满足任务需求的柔顺行为,这类方法被称为被动柔顺控制。此外,一些研究者通过设计主动转矩控制策略来让机器人智能地产生柔顺行为[64–66]。由于主动柔顺控制方法的智能性和精确性[67],所以被认为是应用前景更为广泛的柔顺控制方法。阻抗控制可以通过在末端执行器上建立适当的虚拟质量弹簧阻尼器系统来调节机器人对相互作用力的动态响应[64]。与人体肢体阻抗调整相似,在任务执行中阻抗控制模型的参数应根据任务需求进行调整[68]。通过模仿人类行为的方式让机器人领会和学习阻抗变化曲线和技巧是一种行之有效的方法[69–72]。
与其他两类视觉伺服方法相比,基于图像的视觉伺服不需要进行3D的位姿估计,并且对深度估计误差具有鲁棒性。因此,本文拟在基于图像的视觉伺服框架下开展机器人视觉伺服的抓取操作学习研究,此外,为了避免机械臂抓取过程中对相机的遮挡问题,本文采用眼在手上(Eye-in-Hand)的机器人视觉伺服系统配置方式,如图1.4所示。视觉引导的机器人抓取操作是机器人应用中最基本、最常见的应用之一,是一个已被广泛研究且不断发展的领域。在之前的研究工作中很多聚焦在基于物体几何形状的抓取方法研究[84–86]和基于数据驱动的手指放置位置学习[87–92],更为全面的机器人抓取综述请参见文献[93]。本文并不研究基于物体几何形状的抓取规划问题,而是研究抓取的另一个方面,如何基于视觉反馈信息完成抓取的问题[94–96]。针对这个问题,在事先标定的情形下,研究者们提出了很多行之有效的基于视觉的机器人操作方法[83,97]。然而此类视觉伺服方法实现成功抓取的一个非常基础且关键的步骤是预先标定相机(亦即机器人的眼)与机器人(亦即机器人的手)坐标系之间的转换关系(图像雅克比矩阵),但是机器人视觉伺服系统标定通常较为繁琐,需要专门的标定环节和工具,因此研究无手眼标定下的伺服抓取是非常有意义的课题。
【参考文献】:
期刊论文
[1]机器人操作技能模型综述[J]. 秦方博,徐德. 自动化学报. 2019(08)
[2]机器人操作技能学习方法综述[J]. 刘乃军,鲁涛,蔡莹皓,王硕. 自动化学报. 2019(03)
[3]机器人无标定视觉伺服控制研究进展[J]. 陶波,龚泽宇,丁汉. 力学学报. 2016(04)
[4]基于ELM的机器人自适应跟踪控制[J]. 李军,乃永强. 电机与控制学报. 2015(04)
[5]基于自适应kalman滤波的机器人6DOF无标定视觉定位[J]. 辛菁,白蕾,刘丁. 系统仿真学报. 2014(03)
[6]采用SVR-雅可比估计器的焊接机器人视觉导引[J]. 李鹤喜,石永华,王国荣. 华南理工大学学报(自然科学版). 2013(07)
[7]带有时延补偿的图像雅可比矩阵估计方法[J]. 高振东,苏剑波. 控制理论与应用. 2009(01)
本文编号:2971215
本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/2971215.html