基于Kinect的仿人机器人控制系统

发布时间:2018-11-21 14:09
【摘要】:机器人技术代表了当今社会最先进的智能控制技术,是集机械、电子、计算机、材料、传感器、控制技术等多门科学于一体的技术。随着无线WIFI网络技术的不断发展,除了在原有的传统控制领域有所发展,还可以把无线网络技术应用在机器人技术上,使机器人更加智能,能更好的为人们服务。体态感知作为一种新兴的人机交互技术,随着各种体感设备的研发成功,将体感感知与机器人结合已变成一个非常热门的课题。利用体感传感器Kinect实现对类人型体感机器人的控制,是使人能够与远处真实世界实现良好交互的真实有效手段,将网络通讯的应用扩展到一个全新的控制领域,尤其是云端结合的仿人形智能机器人,在Kinect体感传感器首次问世之后,很自然便成为了一个研究热点。本文将体态感知、无线网络和机器人技术结合起来,设计了一款基于Kinect传感器的仿人机器人控制系统,介绍了利用Kinect建立人体关节模型、机器人的步态规划、仿人机器人的软硬件实现以及搭建了测试平台等方面的内容。为实现对具有16个自由度仿人机器人的姿态控制,采用Kinect传感器对人体姿态的坐标数据进行采集,利用骨骼追踪技术根据坐标信息利用Processing软件开发基于Simple Open NI库的上位机软件,建立人体关节模型,并利用空间向量法对仿人机器人的步态规划以及重心控制的算法做出分析,解析各关节的转动角度,经由无线WIFI模块向仿人机器人发送指令以控制舵机的运动,最终实现对机器人的控制,搭建了基于Kinect传感器的测试平台。测试结果表明,仿人机器人上肢在运动范围内无死角,通过对重心的控制,下肢可实现简单的步行,符合预期目标。经过大量测试,以Kinect作为传感器机器人控制系统具有空间定位稳定,步态规划准确,信号刷新速度快,能快速跟踪人体动作,系统整体上完成预定目标,实现人作为控制器对机器人的基本控制。
[Abstract]:Robot technology represents the most advanced intelligent control technology in our society. It is a multi-science technology which integrates mechanical, electronic, computer, material, sensor, control technology and so on. With the continuous development of wireless WIFI network technology, in addition to the development of the original traditional control field, the wireless network technology can also be applied to the robot technology, making the robot more intelligent and better service for people. As a new human-computer interaction technology, body perception has become a very hot topic with the success of research and development of various somatosensory devices. Using Kinect sensor to control humanoid robot is a real and effective way to realize good interaction with the distant real world. The application of network communication is extended to a new control field. Especially the humanoid intelligent robot combined with cloud has naturally become a research hotspot after the first appearance of Kinect somatosensors. In this paper, a humanoid robot control system based on Kinect sensor is designed by combining posture perception, wireless network and robot technology. The human joint model is built by using Kinect, and the robot gait planning is introduced. The hardware and software of humanoid robot and the test platform are built. In order to realize the attitude control of humanoid robot with 16 degrees of freedom, the coordinate data of human body attitude is collected by Kinect sensor, and the upper computer software based on Simple Open NI library is developed by using Processing software based on the coordinate information of bone tracing technology. The joint model of human body is established and the algorithm of gait planning and center of gravity control of humanoid robot is analyzed by using space vector method, and the rotation angle of each joint is analyzed. Through the wireless WIFI module to the humanoid robot to send instructions to control the motion of the steering gear, finally achieve the control of the robot, build a testing platform based on Kinect sensor. The test results show that the upper limb of humanoid robot has no dead angle in the range of motion. By controlling the center of gravity, the lower limbs can walk simply and meet the expected goal. After a lot of tests, the Kinect as a sensor robot control system has the advantages of stable space positioning, accurate gait planning, fast signal refresh speed, fast tracking of human actions, and the system as a whole accomplishes the predetermined target. The basic control of robot is realized by human being as controller.
【学位授予单位】:哈尔滨理工大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP242

【相似文献】

相关期刊论文 前10条

1 赵铁军,赵明扬,单光坤,王洪光,陈书宏;仿人机器人柔性腰部机构研究[J];机器人;2003年02期

2 汪光,黄强,李科杰;基于仿人机器人自身约束条件的行为调节步行控制[J];探测与控制学报;2003年S1期

3 ;我国仿人机器人研究实现重大突破——“十五”863计划机器人技术主题近期成果简介[J];机器人技术与应用;2003年01期

4 ;质疑“仿人机器人”[J];机器人技术与应用;2003年03期

5 李艳杰,徐继宁,王侃;仿人机器人发展现状及其腰关节的作用[J];沈阳工业学院学报;2004年01期

6 钟华,吴镇炜,卜春光;仿人机器人系统的研究与实现[J];仪器仪表学报;2005年S1期

7 李允明;;国外仿人机器人发展概况[J];机器人;2005年06期

8 李艳杰,赵铁军,谈大龙,吴镇炜,钟华;仿人机器人发展现状及其腰部机构研究[J];机械科学与技术;2005年04期

9 ;仿人机器人开辟应用新领域[J];伺服控制;2005年05期

10 ;仿人机器人系统[J];科学;2006年03期

相关会议论文 前10条

1 钟华;吴镇炜;卜春光;;仿人机器人系统的研究与实现[A];第三届全国信息获取与处理学术会议论文集[C];2005年

2 李国进;易丐;;仿人机器人的一种双向动力学建模方法[A];中南六省(区)自动化学会第二十九届学术年会论文集[C];2011年

3 赵铁军;赵明扬;;仿人机器人柔性腰部机构设计[A];制造业与未来中国——2002年中国机械工程学会年会论文集[C];2002年

4 于爽;张永德;;一种仿人机器人面部的结构设计[A];2002年黑龙江省机械工程学会年会论文集[C];2002年

5 李艳杰;钟华;吴镇炜;李斌;;仿人机器人腰机构控制及分析实验平台研究[A];第二届全国信息获取与处理学术会议论文集[C];2004年

6 王少锋;王崴;张进华;洪军;;基于生物力学特性仿人机器人的研究[A];全国先进制造技术高层论坛暨第七届制造业自动化与信息化技术研讨会论文集[C];2008年

7 王申江;郭祖华;;仿人机器人下蹲动作的最优控制[A];北京力学会第20届学术年会论文集[C];2014年

8 ;一种仿人机器人面部的结构设计(英文)[A];2002年黑龙江省机械工程学会年会论文集[C];2002年

9 龚海里;李斌;张国伟;王聪;郑怀兵;;仿人机器人伺服灵巧手臂模块化控制系统设计[A];中国仪器仪表学会第十二届青年学术会议论文集[C];2010年

10 周珂;冯帅;孙增圻;华芳;徐正光;;仿人机器人步态模型的抗干扰分析[A];2007年足球机器人大会论文集[C];2007年

相关重要报纸文章 前10条

1 本报记者 李凝;让“仿人机器人”走出实验室[N];科技日报;2008年

2 本报记者付毅飞;仿人机器人能亮相奥运会场吗?[N];科技日报;2003年

3 记者 李凝;仿人机器人会打太极拳[N];科技日报;2008年

4 国防科技大学 潘献飞 谭红力;仿人机器人新新“人类”[N];计算机世界;2002年

5 史晓波;仿人机器人能打太极拳[N];科技日报;2002年

6 记者 李江涛;仿人机器人“汇童”首次亮相[N];人民日报;2005年

7 吉星 本报记者 郭俊峰;首届仿人机器人“奥运会”开幕[N];黑龙江日报;2010年

8 记者 付毅飞 刘恕 李凝;我国仿人机器人竟是“武林高手”[N];科技日报;2005年

9 记者 汪永安;仿人机器人“智能脚”研制获突破[N];安徽日报;2012年

10 ;当梦想成为现实[N];经济参考报;2013年

相关博士学位论文 前10条

1 张大松;仿人机器人快速动态作业平衡算法研究[D];浙江大学;2014年

2 马淦;仿人机器人表情与身体动作的人机友好交互研究[D];北京理工大学;2015年

3 李敬;仿人机器人乒乓球击打运动规划与稳定控制[D];北京理工大学;2015年

4 李春光;仿人机器人运动规划与蜂拥控制研究[D];江南大学;2015年

5 张亮;仿人机器人肩肘腕关节及臂的设计[D];燕山大学;2016年

6 张彤;仿人机器人步行控制及路径规划方法研究[D];华南理工大学;2010年

7 汤卿;仿人机器人设计及步行控制方法[D];浙江大学;2009年

8 杜鑫峰;基于视觉识别的仿人机器人足迹点规划研究[D];浙江大学;2011年

9 甘志刚;仿人机器人数字仿真与虚拟示教关键技术研究[D];华南理工大学;2009年

10 王毅;基于仿人机器人的人机交互与合作研究[D];北京科技大学;2015年

相关硕士学位论文 前10条

1 李耀;仿人机器人传感检测模块的设计实现[D];浙江大学;2010年

2 谭海东;仿人机器人行走系统结构设计与优化[D];长春工业大学;2015年

3 伍浩贤;被动踝关节仿人机器人站立平衡控制研究[D];浙江大学;2016年

4 戚旬芳;仿人机器人动作捕捉与运动再现的研究[D];东北大学;2014年

5 胡祥梁;仿人机器人步态规划与控制研究[D];东北大学;2014年

6 徐静;仿人机器人多路况下静态及动态步态规划方法研究[D];东北大学;2014年

7 冀承骏;高仿真灵巧仿人手设计与验证[D];北京理工大学;2016年

8 李通通;基于预观控制的仿人机器人步态规划与稳定控制[D];北京理工大学;2016年

9 黄湖林;仿人机器人混联三自由度躯干设计[D];北京理工大学;2016年

10 周明亮;仿人机器人爬行及其与站立状态转换的运动规划[D];北京理工大学;2016年



本文编号:2347203

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/2347203.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户1486b***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com