复杂场景下的音频序列切分方法的研究
| 摘要 | 第4-5页 |
| ABSTRACT | 第5页 |
| 第1章 绪论 | 第8-15页 |
| 1.1 课题来源 | 第8页 |
| 1.2 课题研究的目的及意义 | 第8-9页 |
| 1.3 国内外相关技术研究现状 | 第9-13页 |
| 1.3.1 音频切分方法的研究现状 | 第9-10页 |
| 1.3.2 音频特征提取的研究现状 | 第10-12页 |
| 1.3.3 深度学习算法的研究现状 | 第12-13页 |
| 1.4 本文的主要研究内容 | 第13-14页 |
| 1.5 本文的章节结构 | 第14-15页 |
| 第2章 音频序列切分相关技术介绍 | 第15-24页 |
| 2.1 引言 | 第15页 |
| 2.2 机器学习方法介绍 | 第15-17页 |
| 2.2.1 支持向量机介绍 | 第15-17页 |
| 2.2.2 高斯混合模型介绍 | 第17页 |
| 2.3 深度学习方法介绍 | 第17-21页 |
| 2.3.1 卷积神经网络介绍 | 第18页 |
| 2.3.2 循环神经网络介绍 | 第18-19页 |
| 2.3.3 长短时记忆网络介绍 | 第19-21页 |
| 2.4 模型选择方法介绍 | 第21-23页 |
| 2.5 本章小结 | 第23-24页 |
| 第3章 音频实验数据的构建与处理 | 第24-33页 |
| 3.1 引言 | 第24页 |
| 3.2 复杂场景下的音频数据集构建 | 第24-29页 |
| 3.2.1 数据评估与分析 | 第24-26页 |
| 3.2.2 数据预处理与规范化标注 | 第26-29页 |
| 3.3 音频序列数据的特征提取 | 第29-32页 |
| 3.4 本章小结 | 第32-33页 |
| 第4章 基于深度残差网络的音频切分方法研究 | 第33-46页 |
| 4.1 引言 | 第33页 |
| 4.2 深度学习模型结构及相应构建方法 | 第33-36页 |
| 4.2.1 问题描述与整体结构 | 第33-34页 |
| 4.2.2 深度残差网络(ResNet) | 第34-36页 |
| 4.3 基于ResNet的音频序列切分模型 | 第36-41页 |
| 4.3.1 模型的输入 | 第37页 |
| 4.3.2 ResNet网络结构设计 | 第37-39页 |
| 4.3.3 ResNet网络激活函数选取 | 第39页 |
| 4.3.4 ResNet网络模型训练方法优化 | 第39-41页 |
| 4.4 实验设置及结果分析 | 第41-45页 |
| 4.4.1 评价指标 | 第41-42页 |
| 4.4.2 实验结果对比与分析 | 第42-45页 |
| 4.5 本章小结 | 第45-46页 |
| 第5章 基于混合模型的音频切分方法研究 | 第46-55页 |
| 5.1 引言 | 第46页 |
| 5.2 混合模型架构简述及实现 | 第46-50页 |
| 5.2.1 问题描述与混合模型整体结构 | 第46-47页 |
| 5.2.2 双向长短时记忆网络模块 | 第47-49页 |
| 5.2.3 深度残差网络模块 | 第49页 |
| 5.2.4 贝叶斯信息选择模块 | 第49-50页 |
| 5.3 实验设置及结果分析 | 第50-54页 |
| 5.3.1 实验环境 | 第50页 |
| 5.3.2 实验评测标准 | 第50-51页 |
| 5.3.3 实验结果对比与分析 | 第51-54页 |
| 5.4 本章小结 | 第54-55页 |
| 结论 | 第55-57页 |
| 参考文献 | 第57-62页 |
| 致谢 | 第62页 |