摘要 | 第5-6页 |
Abstract | 第6页 |
第1章 绪论 | 第11-20页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 音乐情感检索研究历史和现状 | 第12-13页 |
1.3 音频感知哈希综述 | 第13-18页 |
1.3.1 传统哈希与感知哈希 | 第13-15页 |
1.3.2 音频感知哈希 | 第15-17页 |
1.3.3 方法综述 | 第17-18页 |
1.4 本文主要研究内容及论文结构 | 第18-20页 |
第2章 音乐情感检索概述 | 第20-27页 |
2.1 常用的声学特征提取方法 | 第20-22页 |
2.1.1 梅尔频率倒谱系数 | 第20-21页 |
2.1.2 形状特征谱 | 第21-22页 |
2.2 音乐情感检索研究框架 | 第22-26页 |
2.2.1 音乐情感认知模型 | 第22页 |
2.2.2 情感数据抽取方法 | 第22-24页 |
2.2.3 快速音乐哈希及匹配 | 第24-25页 |
2.2.4 音乐情感检索及推荐 | 第25-26页 |
2.3 小结 | 第26-27页 |
第3章 一种快速的音频感知哈希方法 | 第27-39页 |
3.1 引言 | 第27-28页 |
3.2 向量投影及随机搜索策略 | 第28-30页 |
3.3 基于向量投影和随即搜索策略的音频感知哈希方法描述 | 第30-31页 |
3.4 仿真实验结果 | 第31-37页 |
3.4.1 训练投影向量 | 第31-33页 |
3.4.2 测试算法性能 | 第33-37页 |
3.5 广播监控中的应用 | 第37-38页 |
3.6 小结 | 第38-39页 |
第4章 基于深度置信网络的音频感知哈希方法 | 第39-52页 |
4.1 引言 | 第39-40页 |
4.2 深度置信网络的Bottleneck特征框架 | 第40-43页 |
4.2.1 受限的玻尔兹曼机 | 第40-41页 |
4.2.2 深度置信网络 | 第41页 |
4.2.3 Bottleneck特征 | 第41-43页 |
4.3 基于Bottleneck特征的感知哈希方法 | 第43-44页 |
4.3.1 感知哈希数学描述 | 第43页 |
4.3.2 感知哈希算法框架及流程 | 第43-44页 |
4.4 仿真实验结果 | 第44-47页 |
4.5 NN-Bootleneck-FFT方法与VP-FFT方法的理论分析 | 第47-51页 |
4.5.1 神经元 | 第47-48页 |
4.5.2 神经网络 | 第48-50页 |
4.5.3 VP与NN-Bootleneck的同质分析 | 第50-51页 |
4.6 小结 | 第51-52页 |
结论 | 第52-54页 |
参考文献 | 第54-59页 |
致谢 | 第59-60页 |
附录A 攻读硕士学位期间发表的学术论文及参与的科研项目 | 第60页 |