当前位置:主页 > 科技论文 > 信息工程论文 >

基于BOOSTING框架的视觉语音多模态情感识别检测方法

发布时间:2018-04-27 12:42

  本文选题:情感识别 + 表情识别 ; 参考:《现代电子技术》2017年23期


【摘要】:情感识别技术是智能人机交互的重要基础,它涉及计算机科学、语言学、心理学等多个研究领域,是模式识别和图像处理领域的研究热点。鉴于此,基于Boosting框架提出两种有效的视觉语音多模态融合情感识别方法:第一种方法将耦合HMM(coupled HMM)作为音频流和视频流的模型层融合技术,使用改进的期望最大化算法对其进行训练,着重学习难于识别的(即含有更多信息的)样本,并将Ada Boost框架应用于耦合HMM的训练过程,从而得到Ada Boost-CHMM总体分类器;第二种方法构建了多层Boosted HMM(MBHMM)分类器,将脸部表情、肩部运动和语音三种模态的数据流分别应用于分类器的某一层,当前层的总体分类器在训练时会聚焦于前一层总体分类器难于识别的样本,充分利用各模态特征数据间的互补特性。实验结果验证了两种方法的有效性。
[Abstract]:Emotion recognition is an important foundation of intelligent human-computer interaction. It involves many research fields such as computer science, linguistics, psychology and so on. It is a hot topic in the field of pattern recognition and image processing. In view of this, two effective emotion recognition methods for visual speech multimodal fusion based on Boosting framework are proposed. The first method uses coupled HMM(coupled HMMas as model layer fusion technology for audio and video streams. The improved expectation maximization algorithm is used to train it, which is difficult to identify (that is, with more information). The Ada Boost framework is applied to the training process of coupled HMM, and the Ada Boost-CHMM classifier is obtained. The second method is to construct a multilayer Boosted hmm classifier. The data streams of facial expression, shoulder motion and speech are applied to one layer of the classifier, respectively. The current overall classifier will focus on the samples which are difficult to identify in the previous layer, and make full use of the complementary characteristics among the modal feature data. The experimental results show the effectiveness of the two methods.
【作者单位】: 成都理工大学信息科学与技术学院;
【基金】:四川省软件工程专业卓越工程师质量工程项目支持(11100-14Z00327)
【分类号】:TN912.34

【相似文献】

相关期刊论文 前10条

1 熊勰;刘光远;温万惠;;基于智能算法的生理信号情感识别[J];计算机科学;2011年03期

2 王蓓;王晓兰;;基于表情和语音的多模态情感识别研究[J];信息化研究;2014年01期

3 王海宁;孙守迁;吴剑锋;;基于混合智能优化算法的生理信号情感识别[J];电信科学;2010年09期

4 王茜;;音乐信息中情感特征的提取和研究[J];福建电脑;2008年10期

5 姜晓庆;田岚;崔国辉;;多语种情感语音的韵律特征分析和情感识别研究[J];声学学报;2006年03期

6 王玉晶;莫建麟;;基于TS特征选择的生理情感状态分类[J];齐齐哈尔大学学报(自然科学版);2013年03期

7 林景栋;王唯;廖孝勇;;音乐粗情感域中的软切割及分类方法[J];计算机应用;2013年08期

8 乔冠楠;胡剑凌;刘鹏;;声学参数和听觉参数结合的语音情感交叉识别[J];电声技术;2009年06期

9 李阳;田彦涛;陈万忠;;基于半监督boosting表面肌电信号多类模式识别[J];吉林大学学报(工学版);2013年05期

10 张永皋;马青玉;孙青;;基于MFCC和CHMM技术的语音情感分析及其在教育中的应用研究[J];南京师范大学学报(工程技术版);2009年02期

相关会议论文 前2条

1 戴明洋;杨大利;徐明星;张永超;陈胜;;面向真实情感识别的训练语音选择研究[A];第十一届全国人机语音通讯学术会议论文集(一)[C];2011年

2 崔玉路;蒋冬梅;张晓静;谢磊;付中华;Ping Fan;Hichem Sahli;;基于三特征流DBN模型的听视觉情感识别[A];第十一届全国人机语音通讯学术会议论文集(一)[C];2011年

相关博士学位论文 前1条

1 林奕琳;基于语音信号的情感识别研究[D];华南理工大学;2006年

相关硕士学位论文 前10条

1 李承程;基于深度学习的文本语音耦合情感识别方法研究[D];合肥工业大学;2015年

2 沈成业;基于脑电信号的情感识别[D];太原理工大学;2017年

3 郭敏;基于脑电图的诱发型情感识别及机制研究[D];华侨大学;2017年

4 杨敏;非线性特征用于心电信号的情感识别[D];西南大学;2013年

5 刘俸汝;基于皮肤电情感识别的情感调节策略研究[D];西南大学;2013年

6 荀立晨;基于心电信号的情感识别研究[D];天津理工大学;2013年

7 马亮军;基于语音的模糊案例推理情感识别算法研究[D];华东理工大学;2013年

8 刘碧英;非线性特征组合用于皮肤电情感识别的研究[D];西南大学;2013年

9 周钰婷;皮肤电信号的情感特征提取及分类识别研究[D];西南大学;2012年

10 曹军;基于量子粒子群算法的心电信号情感状态识别研究[D];西南大学;2012年



本文编号:1810775

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/1810775.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户e85d8***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com