基于稀疏表示和深度学习的有监督语音增强算法研究

发布时间:2021-01-07 08:49
  作为语言符号系统的载体,语音是人类表达思想和情感的重要工具之一。然而,现实生产生活中无处不在的干扰和噪声使得语音信号经常受到污染,导致语音的质量和可懂度降低,引起人类主观听觉感受的不适,也给语音识别等后端应用带来了挑战。因此,语音增强一直都是语音信号处理领域的一个重要课题,它被具体定义为干净语音在受到来自各种噪声干扰时,利用一定的技术手段抑制和消除噪声,以提升该段语音的质量和可理解性。自20世纪70年代以来,研究学者就开始致力于单通道语音增强算法的研究,相继提出了谱减法、基于统计模型的算法和子空间算法等传统语音增强算法,但这类算法通常需要对语音信号和噪声各自的特性以及彼此是否相关等方面做出一定的前提假设,使其增强性能受到了限制。尤其是在处理非平稳噪声的情况下,往往会引入一些非线性的失真,影响语音的听觉感受以及后端的语音识别编码等处理。近些年来随着科技的进步,语音数据的采集变得快捷方便,基于数据驱动的有监督语音增强算法也应运而生。这类算法的核心思想是通过模型挖掘训练数据的特征和性质,无需依赖任何前提假设,使得这类方法能够适用于相对复杂的声学环境。基于此,本文结合近些年迅速发展的稀疏表示理... 

【文章来源】:中国科学技术大学安徽省 211工程院校 985工程院校

【文章页数】:94 页

【学位级别】:硕士

【部分图文】:

基于稀疏表示和深度学习的有监督语音增强算法研究


图1.1典型的智能会议系统中语音信号处理框架??

方框图,方框,灰度值,元素


?第2章单通道语音增强技术基础???■??■?U??1|?—-鬥?國??_?Hr^izli?…一;ifLndj?U??3?=?:—」:—」?y?__??:.......i?—?M?—?一—?M?M…:?■?I:??jb?m??B?_?一?HI?■?H?_??…..i_j—...'HHHj—[ABLjIJIj??Luj—」jigiiiilmid??x?D?c??图2.3信号稀疏表示示意图:每个小方框代表向量或矩阵的一个元素,方框的灰度值越低??(越黑)表示该元素的数值越大,灰度值越高(越白)表示数值越小??式中,g是稀疏表示系数C的稀疏度约束,f是设置的稀疏表示误差阈值,/(c)是??对向量c的稀疏性度量函数,常用的有仏和、范数。当采用/Q范数时,目标函??数则为非凸问题,相应的稀疏表示算法常用的有MP算法[38]和OMP算法[33_34];??当/〇范数松弛到/i范数的情况下,形如式(2.36)的问题被称为LASSO问题[84],??形如式(2.37)的问题被称为基追踪去噪问题(Basis?Pursuit?Denoising)[8:l1,对于这??类问题常用的稀疏表示算法有BP算法【38]和LARS算法在此章节中,我??们将简要介绍一下常用的几种稀疏表示算法。??1.?OMP算法??对于/〇约束的非凸问题,也是NP-Hard问题,学者们常采用贪婪追踪算法??来解决此类问题,其中最著名的当属OMP算法[33-34】。OMP算法是基于MP算??法改进而来的,MP算法是通过不断迭代选择当前与信号或者残值最匹配的原子??来计算稀疏表示系数的,但是该算法并不能保证

示意图,函数,框架,示意图


?第2章单通道语音增强技术基础???參??图2.4?FNN的网络框架示意图??活函数”。如不特别说明,激活函数一般来说都是非线性函数,常用的有Sigmoid??函数、Tanh函数、ReLU函数和PReLU函数等等[88_89]。??前向神经网络之所以称为“前向”,是因为信息流仅沿着如式(2.49)所示的??一个方向传递,并没有类似于RNN结构中循环往复的连接。此外当式(2.49)采??用的激活函数是二值阈值函数(如Sign(〇函数)时,则式(2.49)实际上类似于感??知机_或者是ADALINE模型,但是整个模型相当于线性分类器,模型的性能??仍然很受限制[91]。如果使用多层FNN搭建网络,则模型可以表示为:??兴=产(.",/2(/】(V,叱),e2)…,t)?(2.50)??式中,I表示网络的总层数,网络的参数则是通过求解目标函数计算得到的:??G*?=?argmax?Y?J(/L(v,0),z),?(v,z)?G?Dlrain?(2.51)??0?d,咖??式中,表示一个非负的代价函数,如均方误差。/hvj)表示含有L层的??FNN模型,0=0^02,…,0J为网络的参数集合,(v,z)表示训练样本的配对数??据,v表示输入的信号特征,z是相应的目标信号特征,式(2.51)的目的就是优??化网络参数使得网络的输出2尽可能地接近目标特征z。??当FNN网络的层数增加时,FNN网络的性能就会进一步地提升,这也是近??些年来深度神经网络得到飞速发展的重要原因。然而网络深度的增加进一步加??大了神经网络训练的难度,为了更好地优化网络参数,Rumelhartetal.Nl提出了??反向传播算法,对L层的FN


本文编号:2962261

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/2962261.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户1c54d***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com