基于深度神经网络的音频信号分离的研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-15页 |
1.1 研究背景和意义 | 第10-11页 |
1.2 当前研究现状 | 第11-13页 |
1.3 论文工作与结构 | 第13-15页 |
第二章 研究对象与方法 | 第15-26页 |
2.1 研究对象的选取 | 第15-17页 |
2.1.1 语音的声学特性 | 第15-16页 |
2.1.2 钢琴的声学特性 | 第16页 |
2.1.3 小提琴的声学特性 | 第16-17页 |
2.2 机器学习理论 | 第17-19页 |
2.2.1 机器学习流程 | 第17-18页 |
2.2.2 模型验证方法 | 第18-19页 |
2.3 两种神经网络算法 | 第19-25页 |
2.3.1 深度神经网络 | 第19-21页 |
2.3.2 卷积神经网络 | 第21-25页 |
2.4 本章小结 | 第25-26页 |
第三章 特征参数提取与模型建立 | 第26-47页 |
3.1 音频的时频域特点分析 | 第26-34页 |
3.1.1 音频信号的时域特征 | 第26-30页 |
3.1.2 音频信号的频域特征 | 第30-34页 |
3.2 数据预处理与特征提取 | 第34-41页 |
3.2.1 数据的选取和去噪 | 第35页 |
3.2.2 数据的切片 | 第35-37页 |
3.2.3 音频叠加 | 第37-38页 |
3.2.4 提取数据特征 | 第38-41页 |
3.3 音源分离模型 | 第41-46页 |
3.3.1 基于深度神经网络的音源分离模型 | 第41-44页 |
3.3.2 基于卷积神经网络的音源分离模型 | 第44-46页 |
3.4 本章小结 | 第46-47页 |
第四章 音源分离及结果分析 | 第47-64页 |
4.1 混合语音的分离及结果分析 | 第47-54页 |
4.1.1 混合语音源分离 | 第47-50页 |
4.1.2 语音分离评价指标 | 第50-51页 |
4.1.3 实验结果与性能分析 | 第51-54页 |
4.2 混合乐器音频的分离及结果分析 | 第54-63页 |
4.2.1 混合乐器音源分离 | 第54-55页 |
4.2.2 乐器分离评价指标 | 第55-56页 |
4.2.3 实验结果与性能分析 | 第56-63页 |
4.3 本章小结 | 第63-64页 |
第五章 总结与展望 | 第64-66页 |
5.1 工作总结 | 第64-65页 |
5.2 工作展望 | 第65-66页 |
参考文献 | 第66-70页 |
致谢 | 第70页 |