当前位置:主页 > 科技论文 > 自动化论文 >

基于改进Faster RCNN算法的手势识别研究

发布时间:2021-11-19 07:26
  在现代工业中,机器人能承受巨大的工作量,拥有极高的重复能力和生产率,同时,机器人能提供搬运重物等操作所需的强力以及特定操作所需的精度。因此,机器人技术在工业中得到广泛应用。人机分离缺乏灵活性和安全性,已经不能满足生产生活需求,因此,人机交互技术的研究对于工业生产、生活都有着重要意义。手势被用作人机交互中一种有效的通信方式,有基于外部设备的手势识别方法和基于计算机视觉的手势识别方法两大类。基于外部设备的手势识别方法已经相对成熟,被广泛应用于虚拟现实、手语识别、机器人生产中。而基于计算机视觉的手势识别方法还有很大提升空间。因此,本研究以人与工业机器人间的交互为研究背景,提出基于改进Faster RCNN的手势识别方法,主要工作如下:(1)针对传统计算机视觉算法需要人为提取特征进行手势识别的问题,采用卷积神经网络(Convolutional Neural Network,CNN)自动提取特征,对十种手势进行检测与识别。比较不同卷积核的均值滤波与高斯滤波等对NUS手势数据集中手势图像的预处理效果,选择卷积核为3的高斯滤波进行图像预处理;搭建卷积神经网络模型,设置参数,训练卷积神经网络,并利用模... 

【文章来源】:河北大学河北省

【文章页数】:52 页

【学位级别】:硕士

【部分图文】:

基于改进Faster RCNN算法的手势识别研究


sigmoid激活函数图像

激活函数,图像,函数


河北大学硕士学位论文8早期使用较多的是sigmoid激活函数和tanh激活函数。近几年,修正线性单元(RectifiedLinearUnit,ReLU)被普遍应用于卷积神经网络中。sigmoid激活函数的表达式如公式(2.2)所示;tanh激活函数的表达式如公式(2.3)所示;ReLU函数的表达式如公式(2.4)所示。xexsigmoid11)((2.2)tanhxxxxeeeex)((2.3)ReLU,0maxx(2.4)由式(2.2)、(2.3)、(2.4)可知,sigmoid函数、tanh函数需要计算指数,计算速度慢,梯度计算复杂。当输入小于0时,ReLU函数输出为0;当输入大于0时,ReLU函数输出等于输入。ReLU函数不需要计算指数,计算速度快,梯度计算简单。sigmoid激活函数的图像如图2-1所示;tanh激活函数的图像如图2-2所示;ReLU函数的图像如图2-3所示。图2-1sigmoid激活函数图像图2-2tanh激活函数图像

特征图,激活函数,导数,梯度


第二章基于卷积神经网络的手势识别方法9图2-3ReLU激活函数sigmoid激活函数与tanh激活函数在x5时,导数接近为0,即“梯度消失”。以梯度下降法训练卷积神经网络的参数时,sigmoid激活函数与tanh激活函数不能实时调整参数。而ReLU函数在x0时是线性函数,不会出现梯度消失的问题。2.1.3池化层池化层有平均值池化和最大值池化两种。最大值池化是指将输入的特征图划分为若干个矩形区域,取每个子区域中元素的最大值作为输出。平均值池化是指将输入的特征图每个子区域中元素的平均值作为输出。图像识别通常是靠边缘识别物体,而平均池化是求某子区域中所有元素的平均值,相当于进行了模糊处理,并不是提取边缘信息。最大池化能够保存边缘,因此,本文使用最大值池化。池化层对输入的特征图进行池化操作,减小了特征图的维度,进而减少了下一层操作的参数和计算量,简化了网络的时间复杂度和空间复杂度。同时,池化操作可以去除特征图中的冗余信息,提取出主要特征,在一定程度上,能防止过拟合。2.1.4全连接层全连接层通常设置在卷积神经网络的最后,起到分类器的作用。将提取的特征信息化为一维矢量,与全连接层各层进行全连接。全连接层最后一层设置为要识别物体的种类个数加上一个背景类。2.1.5目标函数目标函数是指计算卷积神经网络的样本预测结果与其真实标记二者之间的误差。卷积神经网络计算目标函数并反向传播,调整卷积神经网络的参数。分类任务中,卷积神经网络最常用的目标函数是交叉熵(crossentropy),又称Softmax损失函数,其表达式如公式(2.5)所示:


本文编号:3504567

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3504567.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户6228e***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com