基于深度学习的人体异常行为识别研究
发布时间:2020-06-27 13:59
【摘要】:随着人们安全意识的逐步提高,基于视频监控的运动人体异常行为识别技术得到了全社会的广泛关注。然而,已有的人体异常行为识别方法计算复杂度高、模型泛化性差,且很难对其进行准确识别。所以,对视频中的人体异常行为识别方法的研究具有重要意义。为了充分利用视频中的有效信息,提高复杂场景下的人体异常行为识别率,通过研究常用的目标检测算法,基于混合高斯模型,提出一种改进的目标检测方法,采用中值法初始化背景模型,建立新的权值更新规则,并结合帧间差分法,检测出清晰的前景运动目标轮廓,并进一步提取出人体运动关键区域;采用Farneback稠密光流算法计算关键区域的光流值,获取时空信息。通过分析基于深度学习的行为分类模型,结合卷积神经网络(CNN)和长短时记忆网络(LSTM),建立一种基于Dropout机制的CNN-LSTM混合双流网络模型。输入视频序列运动关键区域的原始图像和叠加的光流图像,对时空信息中的动、静态特征和时序信息进行学习。采用加权融合的方式对两路网络的Softmax输出进行加权计算,得到最终的分类结果。在行为分类的基础上实现对视频中人体异常行为的识别,并利用测试样本对改进的双流模型进行测试分析。测试结果表明,运用改进的双流网络模型对测试集上的行为分类准确率达到了91.2%,其中异常行为的识别率为92%,相较于文中对比的三种模型,分别提高了 6%、8.3%、3.4%,说明了本文改进的模型具有较好的识别效果,为人体异常行为识别研究提供了一定的理论参考。
【学位授予单位】:西安科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:TP391.41;TP18
【图文】:
(g)帧差法 (h)改进算法图 3.1 目标检测仿真结果图目标检测仿真仿真中所用测试视频是在强光照环境下拍摄,视频共 795 帧,随机截取了第 90 和第 191 两帧图像的效果图。由仿真结果图 3.1 中的(b)和(f)可以看出,GMM算法在进行前景目标检测时,得到的运动目标轮廓相较于帧差法来说较为完整,基本能够将背景和目标区分开来。但是当视频场景中的运动目标在短暂停留或运动缓慢的时候易被当作背景处理,如(b)图中路灯后停下交流的行人、(f)图中停下回头观望的行人等,从而会对视频中的运动物体造成误检,并且由于 GMM 算法是对像素进行操作的,从图中可以看出检测结果中会存在大量的噪声干扰。由图(c)和(g)可以看出,虽然帧间差分法能够快速定位运动物体,但是帧差法只能提取出部分的运动目标,轮廓缺失严重,并且所提取运动目标的像素点不集中,内部会存在“空洞”现象。通过本文改进的算法,即将改进后的混合高斯模型背景建模与帧间差分法相结合,利用各自的优势,能够对背景进行快速建模,把背景像素和运动目标很好的区分开来,以提取出较为完整的目标轮廓,较好的解决了误检问题,且能较好的抑制噪声干扰,为接下来准确提取运动关键区域及其光流信息提供了有利条件。
(c)提取关键区域图 3.2 人体运动关键区域提取图3.2(a)中原始帧图像尺寸为879 600,(c)中所提取的运动关键区域尺寸大小为 400400,输入卷积神经网络时,再将其归一化至 224 224 大小。可以看出,所提取的人体运动关键区域保留了完整的运动信息,去除了多余的场景信息,不仅能够降低模型的计算复杂度,也能在一定程度上减小光流的计算量。3.2 光流特征提取通常意义上,光流被认为表征着视频的运动或时序信息。在行为识别的数据集中,
本文编号:2731905
【学位授予单位】:西安科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:TP391.41;TP18
【图文】:
(g)帧差法 (h)改进算法图 3.1 目标检测仿真结果图目标检测仿真仿真中所用测试视频是在强光照环境下拍摄,视频共 795 帧,随机截取了第 90 和第 191 两帧图像的效果图。由仿真结果图 3.1 中的(b)和(f)可以看出,GMM算法在进行前景目标检测时,得到的运动目标轮廓相较于帧差法来说较为完整,基本能够将背景和目标区分开来。但是当视频场景中的运动目标在短暂停留或运动缓慢的时候易被当作背景处理,如(b)图中路灯后停下交流的行人、(f)图中停下回头观望的行人等,从而会对视频中的运动物体造成误检,并且由于 GMM 算法是对像素进行操作的,从图中可以看出检测结果中会存在大量的噪声干扰。由图(c)和(g)可以看出,虽然帧间差分法能够快速定位运动物体,但是帧差法只能提取出部分的运动目标,轮廓缺失严重,并且所提取运动目标的像素点不集中,内部会存在“空洞”现象。通过本文改进的算法,即将改进后的混合高斯模型背景建模与帧间差分法相结合,利用各自的优势,能够对背景进行快速建模,把背景像素和运动目标很好的区分开来,以提取出较为完整的目标轮廓,较好的解决了误检问题,且能较好的抑制噪声干扰,为接下来准确提取运动关键区域及其光流信息提供了有利条件。
(c)提取关键区域图 3.2 人体运动关键区域提取图3.2(a)中原始帧图像尺寸为879 600,(c)中所提取的运动关键区域尺寸大小为 400400,输入卷积神经网络时,再将其归一化至 224 224 大小。可以看出,所提取的人体运动关键区域保留了完整的运动信息,去除了多余的场景信息,不仅能够降低模型的计算复杂度,也能在一定程度上减小光流的计算量。3.2 光流特征提取通常意义上,光流被认为表征着视频的运动或时序信息。在行为识别的数据集中,
【参考文献】
相关硕士学位论文 前6条
1 刘雪君;基于深度学习的人体行为识别算法研究[D];东北电力大学;2018年
2 余兴;基于深度学习的视频行为识别技术研究[D];电子科技大学;2018年
3 周道洋;基于卷积神经网络的人体行为检测研究[D];中国科学技术大学;2018年
4 汤华东;基于LSTM融合多CNN的事件图像分类研究[D];北京交通大学;2018年
5 李冠迪;基于图像序列的运动目标检测算法研究[D];重庆理工大学;2017年
6 王昕培;基于双流CNN的异常行为分类算法研究[D];哈尔滨工业大学;2017年
本文编号:2731905
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2731905.html