基于深度学习的单通道语音分离
[Abstract]:Speech separation includes the separation of voice and voice, the separation of voice and noise. The main research work in this paper is the separation of voice and noise, also known as speech enhancement. With the development of artificial intelligence, speech interaction technology is widely used in real life, but the noise interference often seriously reduces the interactive performance of speech, so the separation of speech and noise is particularly important. In addition, because many scenes of speech interaction are based on single microphone, the technology of speech separation based on single microphone has been paid more and more attention by many researchers in recent years. Traditional single-channel speech separation algorithms can be divided into two categories: unsupervised single-channel speech separation and supervised single-channel speech separation. Unsupervised single channel speech separation techniques are mostly based on digital signal processing techniques, such as spectral subtraction, Wiener filtering and so on. The traditional speech separation algorithms based on supervised neural network are as follows: speech separation based on shallow artificial neural network, speech separation based on non-negative matrix decomposition (NMF) and speech separation based on hidden Markov model (HMM). In recent years, with the development of deep neural network (DNN) technology, the single-channel speech separation technology based on DNN has made great progress. Single channel speech separation based on DNN is becoming a new trend in speech separation task. This paper first analyzes the advantages and disadvantages of the traditional speech separation algorithm and the speech separation algorithm based on DNN. Then two improved algorithms are proposed: (1) a joint optimization model based on DNN and nonnegative matrix factorization (NMF) and (2) a joint optimization model based on DNN and convolution nonnegative matrix factorization (CNMF). Finally, the validity of the algorithm is proved by a series of experiments.
【学位授予单位】:内蒙古大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TN912.3
【相似文献】
相关期刊论文 前10条
1 李从清;孙立新;龙东;任晓光;;语音分离技术的研究现状与展望[J];声学技术;2008年05期
2 施剑;杜利民;;基于麦克阵列的实时盲语音分离系统[J];微计算机应用;2008年05期
3 张磊;刘继芳;项学智;;基于计算听觉场景分析的混合语音分离[J];计算机工程;2010年14期
4 杨海滨;张军;;基于模型的单通道语音分离综述[J];计算机应用研究;2010年11期
5 虞晓,胡光锐;基于高斯混合密度函数估计的语音分离[J];上海交通大学学报;2000年01期
6 虞晓,胡光锐;基于高斯混合密度函数估计的语音分离[J];上海交通大学学报;2000年02期
7 张雪峰,刘建强,冯大政;一种快速的频域盲语音分离系统[J];信号处理;2005年05期
8 陈锴;卢晶;徐柏龄;;基于话者状态检测的自适应语音分离方法的研究[J];声学学报;2006年03期
9 董优丽;谢勤岚;;不确定信号源个数的语音分离[J];现代电子技术;2008年03期
10 徐方鑫;;瑞米兹交替算法在语音分离上的应用[J];电脑知识与技术;2012年03期
相关会议论文 前5条
1 史晓非;王宪峰;黄耀P;刘人杰;;一个推广参数矢量算法在语音分离中的应用[A];中国航海学会通信导航专业委员会2004学术年会论文集[C];2004年
2 刘学观;陈雪勤;赵鹤鸣;;基于改进遗传算法的混叠语音分离研究[A];第十届全国信号处理学术年会(CCSP-2001)论文集[C];2001年
3 林静然;彭启琮;邵怀宗;;基于麦克风阵列的双波束近场定位及语音分离[A];第二届全国信息获取与处理学术会议论文集[C];2004年
4 茅泉泉;赵力;;基于MIMO的盲信道语音分离技术[A];2004年全国物理声学会议论文集[C];2004年
5 李量;杜忆;吴玺宏;Claude Alain;;人类听皮层在语音分离中对频率线索和空间线索的线性整合[A];增强心理学服务社会的意识和功能——中国心理学会成立90周年纪念大会暨第十四届全国心理学学术会议论文摘要集[C];2011年
相关博士学位论文 前3条
1 王燕南;基于深度学习的说话人无关单通道语音分离[D];中国科学技术大学;2017年
2 赵立恒;基于计算听觉场景分析的单声道语音分离研究[D];中国科学技术大学;2012年
3 王雨;基于计算听觉场景分析的单通道语音分离研究[D];华东理工大学;2013年
相关硕士学位论文 前10条
1 赵训川;基于计算听觉场景分析和麦克风阵列的语音分离的研究[D];燕山大学;2015年
2 何求知;单通道语音分离关键技术研究[D];电子科技大学;2015年
3 曹猛;基于计算听觉场景分析和深度神经网络的混响语音分离[D];太原理工大学;2016年
4 李枭雄;基于双耳空间信息的语音分离研究[D];东南大学;2015年
5 王瑜;基于计算听觉场景分析的三通道语音分离研究[D];燕山大学;2016年
6 王菁;基于计算听觉场景分析的混合语音分离[D];燕山大学;2016年
7 束佳明;基于双耳声源定位的鲁棒语音分离研究[D];东南大学;2016年
8 陈麟琳;基于机器学习的欠定语音分离方法研究[D];大连理工大学;2016年
9 李号;基于深度学习的单通道语音分离[D];内蒙古大学;2017年
10 夏莎莎;监督性语音分离中训练目标的研究[D];内蒙古大学;2017年
,本文编号:2203740
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/2203740.html