摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第10-16页 |
1.1 课题研究背景 | 第10-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.3 本文的主要内容与贡献 | 第13页 |
1.4 本文组织结构 | 第13-16页 |
第2章 声音场景分类问题描述 | 第16-30页 |
2.1 任务描述 | 第16-17页 |
2.2 通用框架 | 第17-23页 |
2.2.1 音频特征提取 | 第17-20页 |
2.2.2 特征处理 | 第20页 |
2.2.3 统计模型与分类 | 第20-22页 |
2.2.4 元算法 | 第22-23页 |
2.3 数据集 | 第23-27页 |
2.3.1 IEEE DCASE2013挑战数据集[47] | 第23-24页 |
2.3.2 TUT Acoustic scenes 2016[48] | 第24-25页 |
2.3.3 其他数据集 | 第25-27页 |
2.4 本章小结 | 第27-30页 |
第3章 基于注意力机制的声音场景分类方法研究 | 第30-56页 |
3.1 应用注意力机制的动机 | 第30-32页 |
3.2 自注意力及其他深度学习方法描述 | 第32-39页 |
3.2.1 自注意力模型 | 第32-33页 |
3.2.2 多抽头注意力模型 | 第33-34页 |
3.2.3 递归神经网络 | 第34-36页 |
3.2.4 双线性模型 | 第36-37页 |
3.2.5 胶囊网络 | 第37-39页 |
3.3 实验设置 | 第39-46页 |
3.3.1 特征表达和预处理 | 第39-40页 |
3.3.2 聚合分类结果 | 第40页 |
3.3.3 数据集 | 第40页 |
3.3.4 网络架构 | 第40-46页 |
3.4 实验结果与分析 | 第46-53页 |
3.5 本章小结 | 第53-56页 |
第4章 基于参数迁移的声音场景深度分类方法研究 | 第56-66页 |
4.1 迁移学习 | 第57-58页 |
4.2 AudioSet数据集 | 第58-60页 |
4.3 实验设置 | 第60-62页 |
4.4 实验结果与分析 | 第62-63页 |
4.5 本章小结 | 第63-66页 |
第5章 总结与展望 | 第66-68页 |
5.1 工作总结 | 第66-67页 |
5.2 研究不足与展望 | 第67-68页 |
参考文献 | 第68-76页 |
攻读硕士学位期间主要的研究成果 | 第76-78页 |
致谢 | 第78页 |