面向智能制造的机器人位姿误差动态修正技术研究
发布时间:2020-11-11 21:18
大型高端装备制造领域,其装备部件及整机制造装配过程具有超大加工空间、超大制造尺寸、超精密加工与高精度装配等制造技术要求与挑战。以机器人和激光跟踪测量设备作为制造主体的原位智能制造系统为上述要求提供了解决方案。作为原位智能制造的执行机构,高端装备产品的智能制造和柔性化制造都对工业机器人高精度绝对位姿测量和控制技术提出了更高要求。智能制造过程中的工业机器人位姿运动控制是一个复杂的多变量动态变化过程,多种误差因素共同影响机器人末端位姿精度。各误差源作用机理各不相同,随着机器人运动状态和时空改变,其分布规律和影响程度相应变化。导致机器人运动学真实参数随着工作空间、状态、位形和环境动态变化,静态参数化模型不能准确描述机器人实际位姿变换状态。因此,现有机器人误差标定技术中的单一运动学静态参数标定结果不能适应在多工作空间域变化下的多因素综合作用,机器人在线绝对位姿精度的可靠性和工作空间域的适应性不能满足高精度大型装备制造中的操作任务要求。本文针对制造现场环境下工业机器人的加工位姿精度要求,开展面向智能制造的工业机器人位姿误差在线动态修正理论、方法与实验研究。在进一步研究工业机器人误差形成机理与运动学动、静态参量的非线性变化规律基础之上,综合运用激光跟踪六自由度测量技术,构建新的工业机器人运动学在线动态位姿误差模型和测控平台,提出全局优化的位姿误差综合解算和动态标定方法,给出在线实时补偿修正算法,实现机器人位姿精确在线修正与引导。论文详细阐明了位姿测量、坐标系变换、误差估算与补偿的基本原理、解算方法和关键技术,完成了实验验证等工作。论文主要研究内容归纳如下:1.进行了机器人运动学D-H模型参数标定法的误差估算方法与标定机理研究,分析了静态参数化约束的位姿误差工作空间域影响。开展了六自由度关节型工业机器人参数优化误差标定实验,验证了机器人末端位姿误差静态参数标定法存在的工作空间域适应性和精度可靠性问题。2.基于合作项目组研制的便携式激光跟踪系统,研究了激光跟踪系统中的光电定位和跟踪光束伺服控制方法。针对工业环境下的空间大尺寸动态目标六自由度测量,研究了激光跟踪六自由度位姿测量方法,提出和应用基于光束透射法的一体化透反双模式六自由度测量方法进行机器人末端位姿在线跟踪测量。开展了机器人六自由度位姿测量装置定标实验。3.针对机器人在线位姿激光跟踪测量与实时修正需求,提出了一种机器人坐标系与激光测量坐标系快速标定转换和解算方法。通过基于距离原则的机器人末端光学工具中心点(tool center point;TCP)位置标定、空间点坐标重心化配置和基于罗德里格矩阵变换的最小二乘优化算法进行解算,获取了位姿相对变换中的正交旋转矩阵。研究了坐标系等效相似变换方法,建立了机器人末端工具姿态变换描述模型,给出了姿态测量标定过程中的姿态角解算方法。4.针对机器人全工作空间域位姿误差标定精度可靠性问题,提出了非参数化约束的运动学误差综合解算与动态标定方法,将多因素产生末端位姿误差归结为与关节转角变量有关的周期性动态函数变化,实现了机器人误差的动态函数化描述。基于误差等效微分变量和连杆坐标系误差等效微分变换,建立了运动学非参数化约束位姿误差模型。研究了串联式机器人多连杆坐标系关节运动耦合规律,设计了多关节运动空间坐标系位姿在线解耦变换与补偿算法,进行了算法仿真验证和实测对比实验。5.基于对机器人位姿误差进行在线、实时、综合补偿的思想,研究位姿误差动态补偿机理和在线误差信息融合方法,建立了误差动态修正数学模型和关节微分运动复合补偿算法。提出了基于标定预补偿值实时引导修正误差的组合修正方法。搭建机器人在线位姿测控实验平台,进行了补偿算法仿真验证和位姿误差在线组合修正实验。经过误差标定预补偿值在线引导组合修正后,机器人末端位置平均误差为0.022mm,姿态角平均误差为0.016°,达到原位智能制造机器人制孔加工中的末端位置和姿态引导精度要求。
【学位单位】:北京工业大学
【学位级别】:博士
【学位年份】:2018
【中图分类】:TP242
【部分图文】:
北京工业大学工学博士学位论文测量技术项目组研制成功国内首台激光跟踪仪样机整机,在空间目标技术上已接近国际水平[45]。激光跟踪仪主要用于实现空间目标点坐标位置测量。通过组合激光跟技术可以进一步实现空间目标姿态测量[46]。其相关技术研究已经成为术方面研究的热点内容[40, 47, 48]。目前以 Leica 激光跟踪仪为代表的六术得到了广泛应用。Leica 激光跟踪六自由度测量主要分为 T-Probe 和图 1-3 分别为 T-Probe 和 T-Mac 激光靶标。
通过利用圆特征和异面点特征实现了视室内激光投影成像式视觉测量系统研究,基于视觉的六自由度测量精度通常会随理是从两个(或多个)视点观察同一景物,图像处理技术进行图像特征点匹配,并通视差)来获取景物的三维信息。工业机器领域最典型的应用[54]。双目视觉)是用两台性能相同、位置固定算空间点在两幅图像中的“视差”,以此确,如图 1-4 所示。一套完整的双目立体视标、特征提取、立体匹配、深度计算及深摄像机定标误差、数字量化效应、特征精度与匹配定位精度成正比,与摄像机基精度,但同时会增大图像间的差异、增加
姿态误差为 0.1086°[58, 59]。此外,文献[60]设计了一种用于机器人闭环回路自标定的三维位置测量设备 TriCal。备安装了三个正交分布的精密测微仪用于测量球形靶的相对位置坐标,坐标测量分辨为 0.001 mm。采用陀螺仪和加速度计等惯性元件组合的惯性测量法也可以用于机器关节角度和末端姿态测量。通过测量载体运动的角速度和线加速度,应用积分计算即实时获取目标的位姿等信息[61, 62]。由于惯性测量的效果取决于惯性测量单元(IMU)性能,高精度的 IMU 往往成本高、体积大,其最大的缺点在于由于积分效应,误差随着时间的推移而发散。所以该方法会有累积误差,需要定期校正,测量精度低。天大学孙长库课题组提出了一种基于 IMU 与单目视觉融合的姿态测量方法。用融合结与惯性测量结果的差值修正并更新漂移误差曲线。该方法既能有效抑制因 IMU 角速漂移引起的测量误差,相比视觉姿态测量又大幅提高了测量速度,实现惯性测量和视测量的互补结合[63]。大型高端装备制造领域中,基于机器人技术的大型装备智能制造方法与高精度大尺测量,在大型装备装配与制造中已有重要应用[39, 64, 65]。图 1-5 中所示分别为机器人用飞机部件装配定位和大型船体制造过程中的三维扫描测量。
【参考文献】
本文编号:2879758
【学位单位】:北京工业大学
【学位级别】:博士
【学位年份】:2018
【中图分类】:TP242
【部分图文】:
北京工业大学工学博士学位论文测量技术项目组研制成功国内首台激光跟踪仪样机整机,在空间目标技术上已接近国际水平[45]。激光跟踪仪主要用于实现空间目标点坐标位置测量。通过组合激光跟技术可以进一步实现空间目标姿态测量[46]。其相关技术研究已经成为术方面研究的热点内容[40, 47, 48]。目前以 Leica 激光跟踪仪为代表的六术得到了广泛应用。Leica 激光跟踪六自由度测量主要分为 T-Probe 和图 1-3 分别为 T-Probe 和 T-Mac 激光靶标。
通过利用圆特征和异面点特征实现了视室内激光投影成像式视觉测量系统研究,基于视觉的六自由度测量精度通常会随理是从两个(或多个)视点观察同一景物,图像处理技术进行图像特征点匹配,并通视差)来获取景物的三维信息。工业机器领域最典型的应用[54]。双目视觉)是用两台性能相同、位置固定算空间点在两幅图像中的“视差”,以此确,如图 1-4 所示。一套完整的双目立体视标、特征提取、立体匹配、深度计算及深摄像机定标误差、数字量化效应、特征精度与匹配定位精度成正比,与摄像机基精度,但同时会增大图像间的差异、增加
姿态误差为 0.1086°[58, 59]。此外,文献[60]设计了一种用于机器人闭环回路自标定的三维位置测量设备 TriCal。备安装了三个正交分布的精密测微仪用于测量球形靶的相对位置坐标,坐标测量分辨为 0.001 mm。采用陀螺仪和加速度计等惯性元件组合的惯性测量法也可以用于机器关节角度和末端姿态测量。通过测量载体运动的角速度和线加速度,应用积分计算即实时获取目标的位姿等信息[61, 62]。由于惯性测量的效果取决于惯性测量单元(IMU)性能,高精度的 IMU 往往成本高、体积大,其最大的缺点在于由于积分效应,误差随着时间的推移而发散。所以该方法会有累积误差,需要定期校正,测量精度低。天大学孙长库课题组提出了一种基于 IMU 与单目视觉融合的姿态测量方法。用融合结与惯性测量结果的差值修正并更新漂移误差曲线。该方法既能有效抑制因 IMU 角速漂移引起的测量误差,相比视觉姿态测量又大幅提高了测量速度,实现惯性测量和视测量的互补结合[63]。大型高端装备制造领域中,基于机器人技术的大型装备智能制造方法与高精度大尺测量,在大型装备装配与制造中已有重要应用[39, 64, 65]。图 1-5 中所示分别为机器人用飞机部件装配定位和大型船体制造过程中的三维扫描测量。
【参考文献】
相关期刊论文 前10条
1 张丽敏;朱枫;郝颖明;王敏燕;;基于圆特征和异面点特征的位姿测量[J];光子学报;2015年11期
2 周济;;智能制造——“中国制造2025”的主攻方向[J];中国机械工程;2015年17期
3 杨文辉;林嘉睿;高扬;孟祥瑞;邹剑;;激光标靶位姿测量系统的建模与误差分析[J];纳米技术与精密工程;2015年04期
4 刘娇月;杨聚庆;董登峰;周维虎;;激光跟踪仪的光电瞄准与定位系统[J];光学精密工程;2015年06期
5 任永杰;邾继贵;吴军;薛彬;杨凌辉;;采用互扫描法自动标定工作空间定位系统[J];光学精密工程;2015年03期
6 杨守瑞;尹仕斌;任永杰;邾继贵;叶声华;;机器人柔性视觉测量系统标定方法的改进[J];光学精密工程;2014年12期
7 董辉跃;周华飞;尹富成;;机器人自动制孔中绝对定位误差的分析与补偿[J];航空学报;2015年07期
8 王田苗;陶永;;我国工业机器人技术现状与产业化发展战略[J];机械工程学报;2014年09期
9 周炜;廖文和;田威;;基于空间插值的工业机器人精度补偿方法理论与试验[J];机械工程学报;2013年03期
10 解则晓;辛少辉;李绪勇;徐尚;;基于单目视觉的机器人标定方法[J];机械工程学报;2011年05期
本文编号:2879758
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2879758.html