人脸情绪识别深度学习模型研究与应用

发布时间:2022-01-26 08:59
  近年来,深度学习模型得到飞速发展,深度卷积神经网络作为其中的一种方法在计算机视觉中得到广泛应用。影响深度学习模型性能的因素众多,其中激活函数的选取和卷积神经网络的结构对深度学习模型的性能有着重要的影响。针对人脸情绪识别模型准确率不足的问题,本文分析了传统激活函数ReLU、L-ReLU、P-ReLU等性能优缺点,并且与新型Swish激活函数进行了相应的比较,将Swish函数引入人脸情绪深度学习模型,提出了一种改进的反向传播算法,并在卷积神经网络中使用多层小尺寸卷积模块替代单层大尺寸卷积模块,提取细化特征,构建了一种新型的人脸情绪识别深度学习模型Swish-FER-CNNs。实验结果表明,相比于ReLU、L-ReLU、P-ReLU等激活函数,Swish激活函数识别准确率更高。结合Swish激活函数,本文构建的深度学习模型Swish-FER-CNNS相对于现存模型,识别准确率提高了4.02%。Swish-FER-CNNs模型提升了人脸情绪识别的准确率,但计算时间较长。而深度学习模型的训练时间是网络性能的另一重要指标,为了减少模型训练时间,本文结合ReLU激活函数正半轴导数易于计算的特点以及S... 

【文章来源】:湘潭大学湖南省

【文章页数】:78 页

【学位级别】:硕士

【部分图文】:

人脸情绪识别深度学习模型研究与应用


人脸运动单元法分析人脸情绪

激活函数


实数时输出为“0”(关),输入为正实数时输出为“1阶跃函数[24]相似。然而,数学中多数问题都不是简单的的范围和节点较少。为引入非线性映射而设计的nh[26]和 ReLU[27],都具有自身的优势和先进性。活函数,具有软饱和性:函数在定义域范围内,连续函数斜率趋近 0,一阶导数趋向于 0,被称为梯度弥度随传播深度增加而急剧减小的现象,神经元权重更利于神经网络的发展,其函数定义如下:1( )1xf xe 如下图所示:

激活函数,半轴


图 1-3 ReLU 激活函数引入的 L-ReLU 激活函数可有数恒定,利于计算,与 ReLU 性半轴,减缓了均值偏移。其函, 0( ), 0x xf x x x :

【参考文献】:
期刊论文
[1]基于改进激活函数的用于台风等级分类的深度学习模型[J]. 郑宗生,刘兆荣,黄冬梅,宋巍,邹国良,侯倩,郝剑波.  计算机科学. 2018(12)
[2]ReLU激活函数优化研究[J]. 蒋昂波,王维维.  传感器与微系统. 2018(02)
[3]基于改进激活函数的卷积神经网络研究[J]. 曲之琳,胡晓飞.  计算机技术与发展. 2017(12)

硕士论文
[1]基于改进卷积神经网络算法的研究与应用[D]. 王飞飞.南京邮电大学 2016



本文编号:3610210

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3610210.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户c378c***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com