基于Kinect的人体动作识别技术研究
本文选题:动作识别 切入点:谱聚类 出处:《重庆大学》2015年硕士论文 论文类型:学位论文
【摘要】:随着计算机视觉技术应用需求的不断提高,对人类行为理解的研究显得至关重要。而人体动作识别在计算机视觉领域,尤其是在智能监控、人机交互、虚拟现实、运动分析等方面有着广阔的应用前景。因此,人体动作识别的研究也受到越来越多的关注。同时,伴随着深度摄像头的出现,人体动作识别的研究被推向了一个新的高度。当前的很多研究都是基于预先分割的视频流进行人体动作识别的,无法进行在线的识别。在总结国内外对人体动作识别的基础上,本文利用谱聚类和DTW算法对Kinect骨骼跟踪技术捕获的人体骨骼数据进行处理,得到基于人体各个部位的运动粒度的结构化骨骼特征,然后利用联合稀疏编码算法对结构化骨骼特征进行选择和分类学习得到动作模板,最后实现了在线的人体动作识别。下面具体介绍一下本文的研究内容:第一步,在微软的MSRC-12 Kinect Gesture Dataset数据集基础上,根据人体动作表示方式将其转化为动作数据流,为后面模板字典的生成和特征提取做好准备。第二步,利用机器学习的谱聚类算法和改进的动态时间规整算法(DTW)对第一步生成的动作数据流进行学习并生成模板字典。第三步,对动作数据流中每一帧的数据进行结构化骨骼特征提取,其中提取的特征是通过计算帧末尾的最佳拟合子序列与模板字典之间的距离得到的。第四步,利用联合稀疏编码算法对特征进行选择,从而得到从结构化骨骼特征到动作标签的变换矩阵,从而得到动作模板。第五步,对在线的骨骼数据进行预处理,以排除噪声的干扰。第六步,利用第一步的方法将在线的骨骼数据转换为动作数据流,然后利用前面第三步对每一帧的数据进行特征提取。第七步,通过第四步生成的变换矩阵,将第六步生成的特征映射到动作标签,从而识别出在线的人体动作。本文主要面临的挑战有两个:(1)如何在未分割的动作数据流中识别人体动作。(2)如何确定是表现出不同风格的同一个动作,还是两个不同的动作。本文采用一种有效的结构化骨骼特征提取和动态匹配方法为每一帧骨骼数据构造一个特征向量,从而提高了每个动作类别之间的敏感度,从而解决了上面两个问题,实现了对在线人体动作的识别。本文的创新点在于:在模板字典的生成和特征提取阶段,本文采用改进的DTW算法,从而增加了有效模板的数量,提高了在线识别的效率。而且在在线识别阶段,本文对在线的骨骼数据进行预处理,把不感兴趣的和错误的骨骼数据过滤掉,有效地避免了噪声对识别的干扰。
[Abstract]:With the development of the application of computer vision technology, it is very important to study the understanding of human behavior, and the recognition of human body action is in the field of computer vision, especially in the field of intelligent monitoring, human-computer interaction, virtual reality, etc. Motion analysis has a broad application prospect. Therefore, the research of human motion recognition has attracted more and more attention. At the same time, with the appearance of depth camera, The research of human motion recognition has been pushed to a new height. At present, many researches are based on pre-segmented video stream for human motion recognition, which can not be recognized online. On the basis of summing up the recognition of human action at home and abroad, In this paper, we use spectral clustering and DTW algorithm to process human skeleton data captured by Kinect bone tracking technology, and obtain structured skeletal features based on moving granularity of different parts of human body. Then we use the joint sparse coding algorithm to select and classify the structural bone features to get the action template, and finally realize the online human action recognition. Based on Microsoft's MSRC-12 Kinect Gesture Dataset dataset, it is transformed into action data stream according to human action representation, which is ready for the generation of template dictionary and feature extraction. We use the spectral clustering algorithm of machine learning and the improved dynamic time warping algorithm (DTW) to study the action data stream generated by the first step and generate the template dictionary. Structural skeletal feature extraction is carried out for each frame of data in the action data stream, in which the extracted features are obtained by calculating the distance between the best fitting sub-sequence at the end of the frame and the template dictionary. Using the joint sparse coding algorithm to select the features, the transformation matrix from the structural bone features to the action tags is obtained, and the action template. 5th steps are obtained to preprocess the online bone data. In order to eliminate noise interference. 6th steps, using the method of the first step to convert online skeletal data into action data flow, and then using the previous third step to extract the features of each frame data. 7th steps, Through the transformation matrix generated by 4th steps, the feature generated in 6th steps is mapped to the action label. The main challenges in this paper are two: 1) how to recognize human action in an undivided data stream of actions, and how to determine that it is the same action with different styles. In this paper, an effective structured skeletal feature extraction and dynamic matching method is used to construct a feature vector for each frame of skeletal data, which improves the sensitivity of each action category. The innovation of this paper lies in: in the stage of template dictionary generation and feature extraction, the improved DTW algorithm is used to increase the number of effective templates. The efficiency of on-line recognition is improved. In the stage of on-line recognition, the on-line bone data is preprocessed to filter out the uninteresting and incorrect bone data, which effectively avoids the interference of noise to the recognition.
【学位授予单位】:重庆大学
【学位级别】:硕士
【学位授予年份】:2015
【分类号】:TP391.41
【相似文献】
相关期刊论文 前10条
1 胡雅琴;;动作识别技术及其发展[J];电视技术;2013年S2期
2 倪世宏,史忠科,谢川,王彦鸿;军用战机机动飞行动作识别知识库的建立[J];计算机仿真;2005年04期
3 程祥;;人体动作识别的研究[J];电脑知识与技术;2006年20期
4 黄飞跃;徐光yP;;视角无关的动作识别[J];软件学报;2008年07期
5 徐光yP;曹媛媛;;动作识别与行为理解综述[J];中国图象图形学报;2009年02期
6 黄丽鸿;高智勇;刘海华;;基于脉冲神经网络的人体动作识别[J];现代科学仪器;2012年02期
7 周艳青;王磊;;基于视觉的人体动作识别综述[J];山东轻工业学院学报(自然科学版);2012年01期
8 曹琨;;基于检索表的实时动作识别技术研究[J];中外企业家;2014年05期
9 刘博;安建成;;基于关键姿势的人体动作识别[J];电视技术;2014年05期
10 王燕;张绍武;凌志刚;潘泉;;基于图嵌入线性拓展方法的人体动作识别研究[J];计算机仿真;2008年10期
相关会议论文 前7条
1 袁飞;程韬波;周松斌;肖先文;;基于加速度特征的可拓动作识别方法[A];广州市仪器仪表学会2009年学术年会论文集[C];2010年
2 黄飞跃;徐光yP;;自然的人体动作识别[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年
3 叶喜勇;陶霖密;王国建;邸慧军;;视角无关的人体躯干动作识别[A];第六届和谐人机环境联合学术会议(HHME2010)、第19届全国多媒体学术会议(NCMT2010)、第6届全国人机交互学术会议(CHCI2010)、第5届全国普适计算学术会议(PCC2010)论文集[C];2010年
4 黄艳欢;叶少珍;;连续动作分割综述[A];第十四届全国图象图形学学术会议论文集[C];2008年
5 董力赓;陶霖密;徐光yP;;头部姿态和动作的识别与理解[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年
6 朱岩;赵旭;刘允才;;基于稀疏编码和局部时空特征的人体动作识别[A];第十五届全国图象图形学学术会议论文集[C];2010年
7 席旭刚;金燕;朱海港;高云园;;基于小波包熵和支持向量机的手部肌电信号动作识别[A];2013年中国智能自动化学术会议论文集(第五分册)[C];2013年
相关重要报纸文章 前2条
1 本报记者 陈丹;人与机器的“对话”[N];科技日报;2010年
2 ;凌空敲键盘?无线计算机手套问世[N];中国计算机报;2004年
相关博士学位论文 前10条
1 谌先敢;现实环境下的人体动作识别[D];武汉大学;2012年
2 陈渊博;视频序列中的人体动作识别[D];北京邮电大学;2015年
3 刘翠微;视频中人的动作分析与理解[D];北京理工大学;2015年
4 任海兵;非特定人自然的人体动作识别[D];清华大学;2003年
5 成娟;基于表面肌电和加速度信号融合的动作识别和人体行为分析研究[D];中国科学技术大学;2013年
6 邓小宇;面向智能视频监控的前景提取和动作识别技术研究[D];浙江大学;2012年
7 邓利群;三维人体动作识别及其在交互舞蹈系统上的应用[D];中国科学技术大学;2012年
8 曹雏清;面向多方式人际交互的肢体动作识别研究[D];哈尔滨工业大学;2012年
9 吴心筱;图像序列中人的姿态估计与动作识别[D];北京理工大学;2010年
10 蔡美玲;三维人体运动分析与动作识别方法[D];中南大学;2013年
相关硕士学位论文 前10条
1 张思亮;体感交互系统的人体动作识别研究[D];华南理工大学;2015年
2 应锐;基于关键帧及原语的人体动作识别研究[D];复旦大学;2014年
3 陈凌琛;基于Kinect的动作识别研究及在教学中的应用[D];昆明理工大学;2015年
4 张孙培;基于关节数据和极限学习机的人体动作识别[D];南京理工大学;2015年
5 邱春明;基于运动幅度变化率的视频人体动作识别[D];河北大学;2015年
6 康钦谋;视频人体动作识别算法研究[D];电子科技大学;2015年
7 刘海军;基于时空流形学习的人体动作识别[D];电子科技大学;2014年
8 梁燕;交互应用中的实时动作识别[D];北京理工大学;2015年
9 冷晶晶;基于光编码技术的人员入侵智能报警系统[D];西安石油大学;2015年
10 马叶涵;基于Kinect的办公健康分析系统的设计与实现[D];哈尔滨工业大学;2015年
,本文编号:1572291
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/1572291.html