复杂场景下的音频序列切分方法的研究
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第8-15页 |
1.1 课题来源 | 第8页 |
1.2 课题研究的目的及意义 | 第8-9页 |
1.3 国内外相关技术研究现状 | 第9-13页 |
1.3.1 音频切分方法的研究现状 | 第9-10页 |
1.3.2 音频特征提取的研究现状 | 第10-12页 |
1.3.3 深度学习算法的研究现状 | 第12-13页 |
1.4 本文的主要研究内容 | 第13-14页 |
1.5 本文的章节结构 | 第14-15页 |
第2章 音频序列切分相关技术介绍 | 第15-24页 |
2.1 引言 | 第15页 |
2.2 机器学习方法介绍 | 第15-17页 |
2.2.1 支持向量机介绍 | 第15-17页 |
2.2.2 高斯混合模型介绍 | 第17页 |
2.3 深度学习方法介绍 | 第17-21页 |
2.3.1 卷积神经网络介绍 | 第18页 |
2.3.2 循环神经网络介绍 | 第18-19页 |
2.3.3 长短时记忆网络介绍 | 第19-21页 |
2.4 模型选择方法介绍 | 第21-23页 |
2.5 本章小结 | 第23-24页 |
第3章 音频实验数据的构建与处理 | 第24-33页 |
3.1 引言 | 第24页 |
3.2 复杂场景下的音频数据集构建 | 第24-29页 |
3.2.1 数据评估与分析 | 第24-26页 |
3.2.2 数据预处理与规范化标注 | 第26-29页 |
3.3 音频序列数据的特征提取 | 第29-32页 |
3.4 本章小结 | 第32-33页 |
第4章 基于深度残差网络的音频切分方法研究 | 第33-46页 |
4.1 引言 | 第33页 |
4.2 深度学习模型结构及相应构建方法 | 第33-36页 |
4.2.1 问题描述与整体结构 | 第33-34页 |
4.2.2 深度残差网络(ResNet) | 第34-36页 |
4.3 基于ResNet的音频序列切分模型 | 第36-41页 |
4.3.1 模型的输入 | 第37页 |
4.3.2 ResNet网络结构设计 | 第37-39页 |
4.3.3 ResNet网络激活函数选取 | 第39页 |
4.3.4 ResNet网络模型训练方法优化 | 第39-41页 |
4.4 实验设置及结果分析 | 第41-45页 |
4.4.1 评价指标 | 第41-42页 |
4.4.2 实验结果对比与分析 | 第42-45页 |
4.5 本章小结 | 第45-46页 |
第5章 基于混合模型的音频切分方法研究 | 第46-55页 |
5.1 引言 | 第46页 |
5.2 混合模型架构简述及实现 | 第46-50页 |
5.2.1 问题描述与混合模型整体结构 | 第46-47页 |
5.2.2 双向长短时记忆网络模块 | 第47-49页 |
5.2.3 深度残差网络模块 | 第49页 |
5.2.4 贝叶斯信息选择模块 | 第49-50页 |
5.3 实验设置及结果分析 | 第50-54页 |
5.3.1 实验环境 | 第50页 |
5.3.2 实验评测标准 | 第50-51页 |
5.3.3 实验结果对比与分析 | 第51-54页 |
5.4 本章小结 | 第54-55页 |
结论 | 第55-57页 |
参考文献 | 第57-62页 |
致谢 | 第62页 |