摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-15页 |
1.1 研究意义与背景 | 第10-11页 |
1.2 研究现状 | 第11-13页 |
1.3 研究内容 | 第13页 |
1.4 本文的组织结构 | 第13-15页 |
第2章 音乐音频自动合成框架概述 | 第15-25页 |
2.1 音频文件解析 | 第15-17页 |
2.1.1 音频文件参数 | 第15-16页 |
2.1.2 格式化音频数据 | 第16-17页 |
2.2 基于听觉的音频特征 | 第17-20页 |
2.2.1 梅尔频率倒谱系数(MFCC) | 第18-19页 |
2.2.2 其它音乐特征 | 第19-20页 |
2.3 应用于自动作曲及音乐合成的模型概述 | 第20-24页 |
2.3.1 隐马尔科夫模型(HMM) | 第20-21页 |
2.3.2 人工神经网络 | 第21-24页 |
2.4 本章小结 | 第24-25页 |
第3章 基于循环神经网络的音乐音频自动合成算法 | 第25-35页 |
3.1 形式化描述 | 第25-26页 |
3.2 自动作曲模型 | 第26-31页 |
3.2.1 训练数据集组织 | 第26-28页 |
3.2.2 模型训练与预测 | 第28-31页 |
3.3 音乐合成 | 第31-34页 |
3.4 本章小结 | 第34-35页 |
第4章 实验结果及分析 | 第35-45页 |
4.1 基于LSTM的音乐音频自动合成实验 | 第35-37页 |
4.1.1 测试数据与参数设置 | 第35页 |
4.1.2 测试实验 | 第35-37页 |
4.2 基于神经网络的音乐音频自动合成的人机交互实验 | 第37-40页 |
4.3 基于GRU的音乐音频自动合成实验 | 第40-44页 |
4.3.1 基于GRU模型的训练和预测 | 第40-41页 |
4.3.2 测试实验 | 第41-44页 |
4.4 本章小结 | 第44-45页 |
第5章 总结与展望 | 第45-47页 |
5.1 总结 | 第45页 |
5.2 展望 | 第45-47页 |
参考文献 | 第47-51页 |
作者简介及研究成果 | 第51-52页 |
致谢 | 第52-53页 |