摘要 | 第4-6页 |
Abstract | 第6-7页 |
1 绪论 | 第13-19页 |
1.1 研究背景和意义 | 第13-14页 |
1.2 研究现状与技术路线分析 | 第14-16页 |
1.3 本文主要工作及创新点 | 第16-17页 |
1.4 本文组织与结构 | 第17-19页 |
2 相关研究工作概述 | 第19-31页 |
2.1 音乐自动标注基本方法框架 | 第19-20页 |
2.2 音乐的音频特征表示 | 第20-24页 |
2.2.1 人工设计的音频特征表示 | 第20-23页 |
2.2.2 基于特征学习的音频特征表示 | 第23-24页 |
2.3 音乐自动标注方法 | 第24-29页 |
2.3.1 判别式音乐标注方法 | 第24-25页 |
2.3.2 生成式音乐标注方法 | 第25-26页 |
2.3.3 基于深度学习的音乐标注方法 | 第26-29页 |
2.4 本章小结 | 第29-31页 |
3 基于标签条件随机场的音乐自动标注 | 第31-47页 |
3.1 音乐特征表示 | 第31-33页 |
3.1.1 音乐的自适应分段 | 第31-32页 |
3.1.2 音乐的低层音频特征 | 第32-33页 |
3.2 基于标签条件随机场的音乐标注模型 | 第33-40页 |
3.2.1 互斥的音乐标签组 | 第33-34页 |
3.2.2 基于音乐片段的条件随机场模型 | 第34-37页 |
3.2.3 标签特定的音乐特征学习 | 第37-40页 |
3.2.4 音乐标签预测 | 第40页 |
3.3 实验结果与分析 | 第40-46页 |
3.3.1 数据集 | 第40-41页 |
3.3.2 评价指标 | 第41-42页 |
3.3.3 方法有效性验证 | 第42-44页 |
3.3.4 相关方法性能比较 | 第44-46页 |
3.4 本章小结 | 第46-47页 |
4 融合多种音乐表示和注意力机制的音乐标注深度神经网络 | 第47-69页 |
4.1 基于注意力卷积网络的音乐特征表示学习 | 第47-50页 |
4.1.1 门控线性单元 | 第49-50页 |
4.1.2 二维卷积分支 | 第50页 |
4.1.3 一维卷积分支 | 第50页 |
4.2 基于层次RNN结构的音乐序列化建模 | 第50-53页 |
4.2.1 基于LSTM的音乐序列建模 | 第51-52页 |
4.2.2 两种音乐表示的时序相关建模 | 第52-53页 |
4.3 结合自注意力机制的音乐标签预测 | 第53-57页 |
4.3.1 基于单一注意力权重的特征聚合 | 第54-55页 |
4.3.2 基于多注意力权重的特征聚合 | 第55-56页 |
4.3.3 音乐标签预测 | 第56-57页 |
4.4 损失函数 | 第57-58页 |
4.5 实验结果与分析 | 第58-67页 |
4.5.1 数据集 | 第58-59页 |
4.5.2 实现细节 | 第59页 |
4.5.3 评价指标 | 第59-61页 |
4.5.4 方法有效性验证 | 第61-64页 |
4.5.5 相关方法性能比较 | 第64-67页 |
4.6 本章小结 | 第67-69页 |
5 总结与展望 | 第69-71页 |
5.1 本文总结 | 第69-70页 |
5.2 未来展望 | 第70-71页 |
致谢 | 第71-73页 |
参考文献 | 第73-80页 |
简历与科研成果 | 第80-81页 |