基于单音的西洋乐器音色识别方法研究
摘要 | 第10-12页 |
ABSTRACT | 第12-13页 |
符号说明 | 第14-15页 |
第1章 绪论 | 第15-21页 |
1.1 研究背景与意义 | 第15-16页 |
1.2 课题研究现状及发展趋势 | 第16-19页 |
1.2.1 音色特征的现状与发展 | 第16-18页 |
1.2.2 识别算法的现状与发展 | 第18-19页 |
1.3 论文主要工作与组织结构 | 第19-21页 |
第2章 音色描述与评价方法 | 第21-35页 |
2.1 乐器音色的形成机制 | 第21-25页 |
2.1.1 乐器分类 | 第21-22页 |
2.1.2 乐器的声学模型 | 第22-25页 |
2.2 音色特征 | 第25-31页 |
2.2.1 时域特征 | 第25-26页 |
2.2.2 频域特征 | 第26-28页 |
2.2.3 倒频域特征 | 第28-31页 |
2.3 评价方法 | 第31-33页 |
2.3.1 乐器测度 | 第31页 |
2.3.2 整体测度 | 第31-32页 |
2.3.3 可视化方法 | 第32-33页 |
2.4 交叉验证 | 第33页 |
2.5 实验数据库 | 第33-34页 |
2.6 本章小结 | 第34-35页 |
第3章 基于浅层分类器的乐器音色识别 | 第35-54页 |
3.1 乐器音色识别框架 | 第35页 |
3.2 浅层分类器简介 | 第35-40页 |
3.2.1 高斯混合模型 | 第36-37页 |
3.2.2 通用背景模型 | 第37-38页 |
3.2.3 隐马尔可夫模型 | 第38-39页 |
3.2.4 支持向量机 | 第39-40页 |
3.3 基于音色特征时间序列的乐器音色识别 | 第40-49页 |
3.3.1 音色特征集介绍 | 第40-41页 |
3.3.2 特征选择与降维 | 第41-42页 |
3.3.3 浅层分类器配置 | 第42-43页 |
3.3.4 乐器音色识别结果分析 | 第43-49页 |
3.4 基于音色特征时间整合的乐器音色识别 | 第49-53页 |
3.4.1 音色特征时间整合 | 第49-50页 |
3.4.2 浅层分类器配置 | 第50-51页 |
3.4.3 乐器音色识别结果分析 | 第51-53页 |
3.5 本章小结 | 第53-54页 |
第4章 基于深度学习的乐器音色识别 | 第54-71页 |
4.1 深度学习简介 | 第54-58页 |
4.1.1 卷积神经网络 | 第54-56页 |
4.1.2 深度神经网络 | 第56-57页 |
4.1.3 深度卷积自编码器 | 第57-58页 |
4.2 基于CNN的乐器音色识别 | 第58-61页 |
4.2.1 卷积神经网络配置 | 第58页 |
4.2.2 乐器音色识别结果分析 | 第58-61页 |
4.3 基于DNN的乐器音色识别 | 第61-64页 |
4.3.1 深度神经网络配置 | 第61页 |
4.3.2 乐器音色识别结果分析 | 第61-64页 |
4.4 基于DCAE的自动音色特征提取 | 第64-70页 |
4.4.1 反池化 | 第64-65页 |
4.4.2 解卷积 | 第65页 |
4.4.3 训练策略 | 第65-66页 |
4.4.4 深度卷积自编码器配置 | 第66-67页 |
4.4.5 DCAE音色特征的评价与分析 | 第67-70页 |
4.5 本章小结 | 第70-71页 |
第5章 总结与展望 | 第71-73页 |
5.1 总结 | 第71-72页 |
5.2 展望 | 第72-73页 |
附录 | 第73-82页 |
参考文献 | 第82-89页 |
致谢 | 第89-90页 |
攻读学位期间发表学术论文 | 第90-91页 |
学位论文评阅及答辩情况表 | 第91页 |