当前位置:主页 > 科技论文 > 网络通信论文 >

藏语统计参数语音合成的合成语音的音质评测

发布时间:2018-01-02 02:23

  本文关键词:藏语统计参数语音合成的合成语音的音质评测 出处:《西北师范大学》2015年硕士论文 论文类型:学位论文


  更多相关文章: 音质评测 藏语语音合成 统计参数语音合成 隐马尔可夫模型 退火性期望值最大化算法


【摘要】:统计参数语音合成为了语音合成领域的主流合成方法,该方法能够利用有限的训练语料合成出不同说话人、不同风格和不同情感的语音,具有容易改变合成语音的音质、模型占用存储空间小等优点。论文以藏语的统计参数语音合成的合成语音质量的评测为研究目标,提出了一种面向藏语统计参数语音合成的语音基元自动标注方法,考察了不同基元、不同时间标注对藏语统计参数藏语合成系统合成的语音音质的影响,同时引入说话人识别方法对合成语音和源说话人的语音的相似程度进行了评测。论文的主要工作与创新如下:1.提出了一种面向藏语统计参数语音合成的语音基元自动标注方法。在基于隐Markov模型(Hidden Markov Model,HMM)的藏语统计参数语音合成的声学模型训练中,引入了DAEM(Deterministic Annealing Expectation Maximization)算法,对没有时间标注的藏语训练语音进行自动时间标注。以声母和韵母为合成基元,在声母和韵母的声学模型的训练过程中,利用DAEM算法确定HMM模型的嵌入式重估的最佳参数。训练好声学模型后,再利用强制对齐自动获得声母和韵母的时间标注。实验结果表明,该方法对声母和韵母的时间标注接近手工标注的结果。2.考察了不同语音基元和不同的基元时间标注对藏语合成语音音质的影响。分别利用自动标注了时间边界和手工标注了时间边界的藏语语料库训练声学模型,实现基于HMM的藏语统计参数语音合成系统。在此基础上,分别考察了以声、韵母为合成基元和以音节为合成基元对合成语音音质的影响。同时也考察了手工时间标注和自动时间标注对合成语音音质的影响。结果表明,在训练语料少时,两种不同基元合成的藏语语音音质都比较差。随着训练语料的增加,两种不同基元合成的藏语语音音质都在提高。最终在一定训练语料情况下,两种不同基元可以合成语音音质近似的语音。同时,以音节为基元时用自动标注时间的训练语料合成的藏语语音与用手工标注时间的训练语料合成的藏语语音音质还有一定的差距。3.提出了一种利用说话人识别方法评测合成语音与目标说话人的相似程度的方法。采用经验模态分解法(Empirical Mode Decomposition,EMD)和短时分析相结合的说话人识别方法对合成语音进行说话人识别,通过识别结果判断合成语音与目标说话人的相似程度。结果表明,合成的藏语语音与目标说人具有较高的相似程度。
[Abstract]:Statistical parametric speech synthesis method for synthesis of the mainstream field of speech synthesis, the method can use the limited training corpus to synthesize different speakers, different styles and different emotional speech, is easy to change the synthesized speech quality model, the storage space of small advantages. Based on the evaluation of Tibetan statistical parametric speech synthesis speech quality as the research target, put forward a kind of statistical parameters for Tibetan speech synthesis speech element automatic annotation method, the effects of different elements, different time labeling effect on the statistical parameters of a Tibetan Tibetan speech quality synthesis system, while the introduction of speaker recognition method of speech synthesis and speech source speech similar degree the evaluation. The main work and innovation of this paper are as follows: 1. we propose a statistical parameter for Tibetan speech synthesis speech element automatically In the annotation method based on hidden Markov model (Hidden Markov Model, HMM) of the Tibetan statistical parametric speech synthesis acoustic model training, the introduction of the DAEM (Deterministic Annealing Expectation Maximization) algorithm, the Tibetan language training speech did not have time to carry out the automatic annotation time annotation. To consonants and vowels as basic synthesis units, in the training process the acoustic model of consonants and vowels in the determination of optimum parameters of the HMM model embedded revaluation by using DAEM algorithm. The trained acoustic models, using forced alignment automatically get the initial and final time labeling. The experimental results show that the method of time of consonants and vowels marked close to the manual annotation results.2. different speech element and different element effect of the time effect on Tibetan speech synthesis sound annotation. Using automatic annotation time boundary and manually annotated time edge Acoustic model training corpus of Tibetan community, realizing the Tibetan statistical parametric speech synthesis system based on HMM. On this basis, were investigated to the sound of the vowel synthesis based on syllable element and element affecting the synthesis of synthesized speech quality. We also studied the annotation manual and automatic annotation time time of the synthesized speech quality. The results showed that in the training corpus is low, two kinds of element of Tibetan speech synthesis quality is relatively poor. With the increase of the training corpus, two kinds of element of Tibetan speech synthesis sound are improved. Finally in a training corpus, two kinds of primitives can approximate speech synthesis speech sound quality. At the same time, the syllable as the basic element for automatic annotation time training corpus for Tibetan speech synthesis and manual annotation time training corpus for Tibetan speech synthesis quality there is a certain gap.3. Put forward a method of using speaker recognition method to evaluate the synthesized speech with the target speaker similarity. The EMD method (Empirical Mode Decomposition, EMD) speaker recognition method and short-time analysis combining the speaker recognition for speech synthesis by judging the similarity of synthetic speech and the target speaker recognition results. The results show that the Tibetan speech synthesis and target people with high similarity.

【学位授予单位】:西北师范大学
【学位级别】:硕士
【学位授予年份】:2015
【分类号】:TN912.33

【相似文献】

相关期刊论文 前10条

1 王立锋;廖琪梅;苗丹民;;合成语音感知学习模型的建立和效应验证[J];第四军医大学学报;2006年04期

2 霍飞;阿尼·库珀;;机械合成语音,能最终实现吗?[J];世界科学;2012年02期

3 赵博,蔡莲红;合成语音自然度客观测度[J];计算机工程与应用;2005年07期

4 华一满;;合成语音在智能仪器中的应用[J];电子技术;1992年07期

5 宋洁;;语音输出使未来的通讯越来越方便[J];航空计算技术;1985年02期

6 邓正良;一种灵活合成语音库语音的方法[J];广西气象;2000年04期

7 陈联武;郭武;戴礼荣;;声纹识别中合成语音的鲁棒性[J];模式识别与人工智能;2011年06期

8 高正平;徐骏宇;黄汉辉;;PWM在合成语音输出电路中的应用[J];电子科技大学学报;2006年01期

9 余志才,邵志标;PWM方式输出合成语音[J];半导体技术;2001年12期

10 刘惠华,潘建军,周冰,范京;稀疏谱线合成对元音频域信息分布的探讨[J];北京机械工业学院学报;2005年01期

相关会议论文 前6条

1 吕士楠;林凡;张连毅;;基于大语音库的拼接合成语音特征分析[A];新世纪的现代语音学——第五届全国现代语音学学术会议论文集[C];2001年

2 鲍怀翘;王安红;吕士楠;郑玉玲;;普通话合成语音评估方法研究[A];第七届全国人机语音通讯学术会议(NCMMSC7)论文集[C];2003年

3 许洁萍;王安红;鲍怀翘;郑玉玲;陈明;吕士楠;;汉语合成语音评测实验研究[A];第八届全国人机语音通讯学术会议论文集[C];2005年

4 初敏;;韵律研究与合成语音的自然度[A];新世纪的现代语音学——第五届全国现代语音学学术会议论文集[C];2001年

5 初敏;吕士楠;;一种将PSOLA算法与语音正弦模型结合的合成方法[A];第五届全国人机语音通讯学术会议论文集[C];1998年

6 黄玫;李双田;;一种改进的正弦分析/合成语音方法及在音频时域修正中的应用[A];2006年声频工程学术交流会论文集[C];2006年

相关重要报纸文章 前1条

1 IDG电讯;XML:位于逐渐成形的Web服务中心[N];计算机世界;2002年

相关博士学位论文 前1条

1 黄平牧;中文TTS系统中若干关键技术研究[D];北京邮电大学;2008年

相关硕士学位论文 前5条

1 杨心yN;歌声合成技术与应用探究[D];南京艺术学院;2015年

2 徐世鹏;藏语统计参数语音合成的合成语音的音质评测[D];西北师范大学;2015年

3 王家丽;嵌入式汉语合成语音库的构建与搜索[D];山东大学;2008年

4 唐金峰;电话语音的频带扩展[D];苏州大学;2009年

5 李蕾;关于可编程流程的IVR系统的研究与设计[D];四川大学;2005年



本文编号:1367277

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wltx/1367277.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户9d05f***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com