基于小尺度核卷积的人脸表情识别研究
发布时间:2021-09-04 06:44
人脸表情作为一种传达情绪状态和意图的主要形式,在人际关系中提供了重要的非语言交际线索。随着人工智能和机器学习等技术的兴起,现有的人机交互方式已经无法满足人类的需求,使机器具备精确辨别人类情绪的能力逐渐成为计算机视觉等领域的热点研究问题。受光照、角度等客观条件影响,人脸面部表情难以达到特征统一,给计算机识别情绪带来了巨大挑战,因此,构建具有准确表情分类能力、学习不同表情特征的机器模型对实现自然人机交互具有重要研究意义。随着深度学习方法在计算机视觉领域的广泛应用,使现有的面部表情识别模型效果得到了显著提高,但仍存在网络泛化能力不强、模型结构复杂导致网络计算量大、表情识别效果不够理想等问题,针对这些问题,本文提出一种基于小尺度核卷积的人脸表情识别方法,通过设计多层小尺度核卷积块提取面部表情特征,对样本数据进行训练测试优化特征提取网络模型,使用Softmax分类器实现表情分类,并对方法性能进行实验验证,证明算法的有效性。本文的研究工作主要包括以下几个方面:1)采用数据增强变换等方法来增强网络模型的泛化能力,降低人脸表情图像的多样化影响,在图像预处理阶段采用人脸检测和数据增强两种手段,扩充样本数...
【文章来源】:华中师范大学湖北省 211工程院校 教育部直属院校
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
图1.1人脸表情识别研究进程??
宄表情识别,下面将对深度置信网络、深度自编码网??络、循环神经网络和卷积神经网络四种应用于表情识别的深度学习技术进行详细介??绍与分析。??2.?3.1基于深度置信网络的人脸表情识别??深度置信网络(〇££?8£1丨£【仏饮〇也,08>〇由沌加〇11教授率先[37]提出,将无监??督学习和有监督学习相结合,建立一个观察数据和标签的联合分布,得到一个用于??学习提取深层次训练特征的概率生成模型。传统的深度置信网络由若干层受限玻尔??兹曼机(RBM)?M构建而成。深度置信网络的结构图如图2.2所示。??,/?\?,??、'、??输出数据?|?标准标注信息??、??y?V?J??Bp「―??二??^2?|?j;反向传播??「!?-?*? ̄? ̄?K,-?1? ̄?1??參參??????鲁)I?I??I??:?",?I?I??RBM???[!?1?I??%?!!?微调?I??r?-?-j????1--,??|?(籲鲁籲??????籲f?丨|??l_—二一丨??RBM?!?%?1?I?微调????t_?k_?!??(?输入数据??图2.2?DBN基本结构图??如图2.2所示,该模型通过多层受限玻尔兹曼机自动学习特征。其中,RBM[38]??是可见单元层(显层)和隐藏单元层(隐层)组成的两层生成随机模型,训练数据??由显层输入,隐层则作为特征检测器。训练过程中,前一个RBM的输出层(隐层)??11??
硕士学位论文??y?MASTER?STHESIS??特征,再通过DBN网络训练,得到更高层次的表情特征。??2.3.2基于深度自动编码器的人脸表情识别??深度自动编码器(DeepAuto-Encoder,DAE)?最早用以学习有效的降维编码??而产生,与经过大量训练可以预测目标值的网络相反,DAE通过最小化重构误差来??优化其输入,其基本结构如图2.3所示。??输入层?输出层??I?I?I??编码器?解码器??图2.3?DAE网络基本结构图??DAE网络为对称结构,由输入层、隐藏层和输出层组成。数据从输入层输入,??经过编码器编码即数据降维到达隐藏层,然后通过隐藏层作用生成与原输入节点相??同的输出节点,类似于解码器运算。深度自动编码网络的编码、解码过程可用公式??(2.3)、(2.4)来进行描述。??h?=?f(x)=s/{Wx+bi)?(2.3)??少=g(办)=?(■?+办2)?(2.4)??其中,A为隐藏节点数值,;c为输入值,:v为输出值,函数/表示从输入层到??隐藏层的编码过程,函数g表示从隐藏层到输出层的解码过程,灰为编码器权值,??酽为解码器权值,为编码器偏置值,62为解码器偏置值,&为编码器激活函数,??13??
【参考文献】:
期刊论文
[1]基于域适应卷积神经网络的人脸表情识别[J]. 亢洁,李佳伟,杨思力. 计算机工程. 2019(12)
[2]基于多特征融合密集残差CNN的人脸表情识别[J]. 马中启,朱好生,杨海仕,王琪,胡燕海. 计算机应用与软件. 2019(07)
[3]基于人脸分割的复杂环境下表情识别实时框架[J]. 吕诲,童倩倩,袁志勇. 计算机工程与应用. 2020(12)
[4]基于多尺度核特征卷积神经网络的实时人脸表情识别[J]. 李旻择,李小霞,王学渊,孙维. 计算机应用. 2019(09)
[5]基于改进的深度残差网络的表情识别研究[J]. 何俊,刘跃,李倡洪,沈津铭,李帅,王京威. 计算机应用研究. 2020(05)
[6]基于跨连接LeNet-5网络的面部表情识别[J]. 李勇,林小竹,蒋梦莹. 自动化学报. 2018(01)
[7]人脸表情识别的研究进展[J]. 蒋斌,贾克斌,杨国胜. 计算机科学. 2011(04)
[8]人脸表情识别方法综述[J]. 王志良,陈锋军,薛为民. 计算机应用与软件. 2003(12)
硕士论文
[1]基于2D-FrFT多阶次特征融合的人脸表情识别技术[D]. 张嗣思.郑州大学 2011
本文编号:3382776
【文章来源】:华中师范大学湖北省 211工程院校 教育部直属院校
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
图1.1人脸表情识别研究进程??
宄表情识别,下面将对深度置信网络、深度自编码网??络、循环神经网络和卷积神经网络四种应用于表情识别的深度学习技术进行详细介??绍与分析。??2.?3.1基于深度置信网络的人脸表情识别??深度置信网络(〇££?8£1丨£【仏饮〇也,08>〇由沌加〇11教授率先[37]提出,将无监??督学习和有监督学习相结合,建立一个观察数据和标签的联合分布,得到一个用于??学习提取深层次训练特征的概率生成模型。传统的深度置信网络由若干层受限玻尔??兹曼机(RBM)?M构建而成。深度置信网络的结构图如图2.2所示。??,/?\?,??、'、??输出数据?|?标准标注信息??、??y?V?J??Bp「―??二??^2?|?j;反向传播??「!?-?*? ̄? ̄?K,-?1? ̄?1??參參??????鲁)I?I??I??:?",?I?I??RBM???[!?1?I??%?!!?微调?I??r?-?-j????1--,??|?(籲鲁籲??????籲f?丨|??l_—二一丨??RBM?!?%?1?I?微调????t_?k_?!??(?输入数据??图2.2?DBN基本结构图??如图2.2所示,该模型通过多层受限玻尔兹曼机自动学习特征。其中,RBM[38]??是可见单元层(显层)和隐藏单元层(隐层)组成的两层生成随机模型,训练数据??由显层输入,隐层则作为特征检测器。训练过程中,前一个RBM的输出层(隐层)??11??
硕士学位论文??y?MASTER?STHESIS??特征,再通过DBN网络训练,得到更高层次的表情特征。??2.3.2基于深度自动编码器的人脸表情识别??深度自动编码器(DeepAuto-Encoder,DAE)?最早用以学习有效的降维编码??而产生,与经过大量训练可以预测目标值的网络相反,DAE通过最小化重构误差来??优化其输入,其基本结构如图2.3所示。??输入层?输出层??I?I?I??编码器?解码器??图2.3?DAE网络基本结构图??DAE网络为对称结构,由输入层、隐藏层和输出层组成。数据从输入层输入,??经过编码器编码即数据降维到达隐藏层,然后通过隐藏层作用生成与原输入节点相??同的输出节点,类似于解码器运算。深度自动编码网络的编码、解码过程可用公式??(2.3)、(2.4)来进行描述。??h?=?f(x)=s/{Wx+bi)?(2.3)??少=g(办)=?(■?+办2)?(2.4)??其中,A为隐藏节点数值,;c为输入值,:v为输出值,函数/表示从输入层到??隐藏层的编码过程,函数g表示从隐藏层到输出层的解码过程,灰为编码器权值,??酽为解码器权值,为编码器偏置值,62为解码器偏置值,&为编码器激活函数,??13??
【参考文献】:
期刊论文
[1]基于域适应卷积神经网络的人脸表情识别[J]. 亢洁,李佳伟,杨思力. 计算机工程. 2019(12)
[2]基于多特征融合密集残差CNN的人脸表情识别[J]. 马中启,朱好生,杨海仕,王琪,胡燕海. 计算机应用与软件. 2019(07)
[3]基于人脸分割的复杂环境下表情识别实时框架[J]. 吕诲,童倩倩,袁志勇. 计算机工程与应用. 2020(12)
[4]基于多尺度核特征卷积神经网络的实时人脸表情识别[J]. 李旻择,李小霞,王学渊,孙维. 计算机应用. 2019(09)
[5]基于改进的深度残差网络的表情识别研究[J]. 何俊,刘跃,李倡洪,沈津铭,李帅,王京威. 计算机应用研究. 2020(05)
[6]基于跨连接LeNet-5网络的面部表情识别[J]. 李勇,林小竹,蒋梦莹. 自动化学报. 2018(01)
[7]人脸表情识别的研究进展[J]. 蒋斌,贾克斌,杨国胜. 计算机科学. 2011(04)
[8]人脸表情识别方法综述[J]. 王志良,陈锋军,薛为民. 计算机应用与软件. 2003(12)
硕士论文
[1]基于2D-FrFT多阶次特征融合的人脸表情识别技术[D]. 张嗣思.郑州大学 2011
本文编号:3382776
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3382776.html
最近更新
教材专著