摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
主要符号对照表 | 第14-15页 |
第一章 绪论 | 第15-25页 |
1.1 声音事件识别简介 | 第15-18页 |
1.1.1 研究方向 | 第15-16页 |
1.1.2 相关应用 | 第16-17页 |
1.1.3 面临挑战 | 第17-18页 |
1.2 声音事件识别系统框架 | 第18-19页 |
1.3 研究现状 | 第19-21页 |
1.3.1 发展历程 | 第19-20页 |
1.3.2 存在问题 | 第20-21页 |
1.4 数据集介绍 | 第21-22页 |
1.5 本文研究内容及组织框架 | 第22-25页 |
1.5.1主要内容 | 第22-23页 |
1.5.2 本文的组织框架 | 第23-25页 |
第二章 声音事件识别的特征提取方法综述 | 第25-35页 |
2.1 传统特征 | 第25-28页 |
2.1.1 平稳特征 | 第25-27页 |
2.1.2 非平稳特征 | 第27-28页 |
2.2 基于神经网络的特征 | 第28-33页 |
2.2.1 深度神经网络 | 第28-32页 |
2.2.2 卷积神经网络 | 第32-33页 |
2.3 本章小结 | 第33-35页 |
第三章 基于时频域非线性映射的特征表示 | 第35-47页 |
3.1 基于频域方差非线性映射的特征表示 | 第35-44页 |
3.1.1 研究动机 | 第35-36页 |
3.1.2 频域筛选的频谱图特征(FSM-SIF) | 第36-37页 |
3.1.3 频域方差的计算 | 第37-38页 |
3.1.4 非线性映射边界的确定 | 第38-40页 |
3.1.5 系统框架及实验配置 | 第40-41页 |
3.1.6 实验结果与讨论 | 第41-44页 |
3.2 基于时域非线性映射的特征表示 | 第44-45页 |
3.3 本章小结 | 第45-47页 |
第四章 基于神经网络的谱图时频域融合特征表示 | 第47-57页 |
4.1 研究动机 | 第47页 |
4.2 耳蜗图特征的引入 | 第47-50页 |
4.2.1 耳蜗图简介 | 第47-48页 |
4.2.2 耳蜗图与DNN | 第48-49页 |
4.2.3 耳蜗图与CNN | 第49-50页 |
4.3 去噪处理 | 第50-51页 |
4.4 双通道特征融合 | 第51-53页 |
4.4.1 实验框架 | 第52-53页 |
4.4.2 实验结果 | 第53页 |
4.5 底层特征融合 | 第53-55页 |
4.5.1 实验框架 | 第53-54页 |
4.5.2 实验结果 | 第54-55页 |
4.6 本章小结 | 第55-57页 |
第五章 基于神经网络的谱图多分辨率融合特征表示 | 第57-67页 |
5.1 研究动机 | 第57页 |
5.2 实验框架 | 第57-59页 |
5.3 频谱图多分辨率融合的特征表示 | 第59-61页 |
5.3.1 实验配置 | 第59页 |
5.3.2 分辨率的确定 | 第59-60页 |
5.3.3 实验结果 | 第60-61页 |
5.4 耳蜗图多分辨率融合的特征表示 | 第61-63页 |
5.4.1 实验配置 | 第61页 |
5.4.2 分辨率的确定 | 第61-63页 |
5.4.3 实验结果 | 第63页 |
5.5 不同融合特征性能对比 | 第63-66页 |
5.6 本章小结 | 第66-67页 |
第六章 总结 | 第67-71页 |
6.1 本文的主要贡献 | 第67-68页 |
6.2 后续研究展望 | 第68-71页 |
参考文献 | 第71-75页 |
致谢 | 第75-77页 |
在读期间发表的学术论文与取得的研究成果 | 第77-78页 |