基于单音的西洋乐器音色识别方法研究
发布时间:2023-10-12 02:55
作为音乐信息检索领域内的重要分支,乐器识别的关键在于音色信息的提取。基于乐器音色形成机制,乐器音色的稳定成分主要表现为乐音不同频率成份的时间演变。传统上,音色信息的表达是通过人工设计的音色特征,因此乐器音色主要表现为音色特征时间序列的演变。本文的研究工作侧重于西洋乐器单音的音色识别。首先,本文将经过特征选择与降维的音色特征组合,按多种方式作为浅层分类器的输入来实现乐器音色识别。其中,高斯混合模型与通用背景模型将乐器音色信息建模成概率分布,隐马尔可夫模型将乐器音色信息建模成隐状态概率分布与转移概率。无论哪一种分类器,基于信息增益(Information Gain,IG)原则的特征选择方法都表现出相对优越的性能。通用背景模型优于其他两类分类器,取得了 92.3%的整体准确率。另外,本文将音色特征时间序列的时间整合作为支持向量机的输入来实现乐器音色识别。对于不同的音色特征,时间整合的组合特征,即统计量与多变量自回归的组合特征(Combination of Multivariate Auto Regression,CMAR),相对于单纯的多变量自回归的特征(Multivariate Auto ...
【文章页数】:91 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
符号说明
第1章 绪论
1.1 研究背景与意义
1.2 课题研究现状及发展趋势
1.2.1 音色特征的现状与发展
1.2.2 识别算法的现状与发展
1.3 论文主要工作与组织结构
第2章 音色描述与评价方法
2.1 乐器音色的形成机制
2.1.1 乐器分类
2.1.2 乐器的声学模型
2.2 音色特征
2.2.1 时域特征
2.2.2 频域特征
2.2.3 倒频域特征
2.3 评价方法
2.3.1 乐器测度
2.3.2 整体测度
2.3.3 可视化方法
2.4 交叉验证
2.5 实验数据库
2.6 本章小结
第3章 基于浅层分类器的乐器音色识别
3.1 乐器音色识别框架
3.2 浅层分类器简介
3.2.1 高斯混合模型
3.2.2 通用背景模型
3.2.3 隐马尔可夫模型
3.2.4 支持向量机
3.3 基于音色特征时间序列的乐器音色识别
3.3.1 音色特征集介绍
3.3.2 特征选择与降维
3.3.3 浅层分类器配置
3.3.4 乐器音色识别结果分析
3.4 基于音色特征时间整合的乐器音色识别
3.4.1 音色特征时间整合
3.4.2 浅层分类器配置
3.4.3 乐器音色识别结果分析
3.5 本章小结
第4章 基于深度学习的乐器音色识别
4.1 深度学习简介
4.1.1 卷积神经网络
4.1.2 深度神经网络
4.1.3 深度卷积自编码器
4.2 基于CNN的乐器音色识别
4.2.1 卷积神经网络配置
4.2.2 乐器音色识别结果分析
4.3 基于DNN的乐器音色识别
4.3.1 深度神经网络配置
4.3.2 乐器音色识别结果分析
4.4 基于DCAE的自动音色特征提取
4.4.1 反池化
4.4.2 解卷积
4.4.3 训练策略
4.4.4 深度卷积自编码器配置
4.4.5 DCAE音色特征的评价与分析
4.5 本章小结
第5章 总结与展望
5.1 总结
5.2 展望
附录
参考文献
致谢
攻读学位期间发表学术论文
学位论文评阅及答辩情况表
本文编号:3853312
【文章页数】:91 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
符号说明
第1章 绪论
1.1 研究背景与意义
1.2 课题研究现状及发展趋势
1.2.1 音色特征的现状与发展
1.2.2 识别算法的现状与发展
1.3 论文主要工作与组织结构
第2章 音色描述与评价方法
2.1 乐器音色的形成机制
2.1.1 乐器分类
2.1.2 乐器的声学模型
2.2 音色特征
2.2.1 时域特征
2.2.2 频域特征
2.2.3 倒频域特征
2.3 评价方法
2.3.1 乐器测度
2.3.2 整体测度
2.3.3 可视化方法
2.4 交叉验证
2.5 实验数据库
2.6 本章小结
第3章 基于浅层分类器的乐器音色识别
3.1 乐器音色识别框架
3.2 浅层分类器简介
3.2.1 高斯混合模型
3.2.2 通用背景模型
3.2.3 隐马尔可夫模型
3.2.4 支持向量机
3.3 基于音色特征时间序列的乐器音色识别
3.3.1 音色特征集介绍
3.3.2 特征选择与降维
3.3.3 浅层分类器配置
3.3.4 乐器音色识别结果分析
3.4 基于音色特征时间整合的乐器音色识别
3.4.1 音色特征时间整合
3.4.2 浅层分类器配置
3.4.3 乐器音色识别结果分析
3.5 本章小结
第4章 基于深度学习的乐器音色识别
4.1 深度学习简介
4.1.1 卷积神经网络
4.1.2 深度神经网络
4.1.3 深度卷积自编码器
4.2 基于CNN的乐器音色识别
4.2.1 卷积神经网络配置
4.2.2 乐器音色识别结果分析
4.3 基于DNN的乐器音色识别
4.3.1 深度神经网络配置
4.3.2 乐器音色识别结果分析
4.4 基于DCAE的自动音色特征提取
4.4.1 反池化
4.4.2 解卷积
4.4.3 训练策略
4.4.4 深度卷积自编码器配置
4.4.5 DCAE音色特征的评价与分析
4.5 本章小结
第5章 总结与展望
5.1 总结
5.2 展望
附录
参考文献
致谢
攻读学位期间发表学术论文
学位论文评阅及答辩情况表
本文编号:3853312
本文链接:https://www.wllwen.com/kejilunwen/wltx/3853312.html