基于深度学习的音频场景识别方法研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第10-11页 |
缩略语对照表 | 第11-14页 |
第一章 绪论 | 第14-24页 |
1.1 研究的目的及意义 | 第14-15页 |
1.2 国内外研究现状 | 第15-21页 |
1.2.1 音频特征研究现状 | 第16-18页 |
1.2.2 分类器研究现状 | 第18-21页 |
1.3 深度学习发展现状 | 第21-22页 |
1.4 本文研究内容 | 第22页 |
1.5 本文章节安排 | 第22-24页 |
第二章 深度学习概述 | 第24-36页 |
2.1 神经网络基础 | 第24-28页 |
2.1.1 神经元模型 | 第24-27页 |
2.1.2 神经网络模型 | 第27-28页 |
2.2 深度学习基本思想 | 第28页 |
2.3 深度学习常用模型 | 第28-32页 |
2.3.1 卷积神经网络模型 | 第29-30页 |
2.3.2 循环神经网络模型 | 第30-31页 |
2.3.3 长短时记忆模型 | 第31-32页 |
2.4 深度学习面临的挑战 | 第32-33页 |
2.5 本章小结 | 第33-36页 |
第三章 基于MFCC和GMM的基线系统 | 第36-46页 |
3.1 引言 | 第36页 |
3.2 MFCC特征提取 | 第36-39页 |
3.3 GMM模型训练 | 第39-42页 |
3.4 实验与分析 | 第42-44页 |
3.4.1 实验数据与设置 | 第42-43页 |
3.4.2 实验结果与分析 | 第43-44页 |
3.5 本章小结 | 第44-46页 |
第四章 基于深度学习的音频场景识别方法 | 第46-66页 |
4.1 引言 | 第46页 |
4.2 改进的基于DNN的音频场景识别方法 | 第46-50页 |
4.2.1 音频特征提取 | 第46-47页 |
4.2.2 基于对数梅尔谱的DNN结构 | 第47页 |
4.2.3 模型的加速和防过拟合 | 第47-48页 |
4.2.4 实验结果与分析 | 第48-50页 |
4.3 基于DNN的分层分类方法 | 第50-53页 |
4.3.1 DNN识别方法的混淆矩阵分析 | 第50-52页 |
4.3.2 实验结果与分析 | 第52-53页 |
4.4 基于CNN的音频场景识别方法 | 第53-65页 |
4.4.2 特征提取 | 第53-57页 |
4.4.3 卷积神经网络结构 | 第57-60页 |
4.4.4 过拟合 | 第60-63页 |
4.4.5 实验结果与分析 | 第63-65页 |
4.5 本章小结 | 第65-66页 |
第五章 基于CNN的混合音频场景识别方法 | 第66-76页 |
5.1 引言 | 第66页 |
5.2 基于CNN的音频特征提取依据 | 第66-67页 |
5.3 基于CNN特征的SVM音频场景识别 | 第67-69页 |
5.4 基于CNN特征的随机森林音频场景识别 | 第69-71页 |
5.5 特征融合的CNN音频场景识别方法 | 第71-74页 |
5.6 本章小结 | 第74-76页 |
第六章 总结与展望 | 第76-78页 |
6.1 已完成工作内容总结 | 第76-77页 |
6.2 遗留问题及后续工作考虑 | 第77-78页 |
参考文献 | 第78-82页 |
致谢 | 第82-84页 |
作者简介 | 第84-85页 |