| 摘要 | 第4-5页 | 
| Abstract | 第5页 | 
| 第1章 绪论 | 第10-16页 | 
| 1.1 课题研究背景 | 第10-11页 | 
| 1.2 国内外研究现状 | 第11-13页 | 
| 1.3 本文的主要内容与贡献 | 第13页 | 
| 1.4 本文组织结构 | 第13-16页 | 
| 第2章 声音场景分类问题描述 | 第16-30页 | 
| 2.1 任务描述 | 第16-17页 | 
| 2.2 通用框架 | 第17-23页 | 
| 2.2.1 音频特征提取 | 第17-20页 | 
| 2.2.2 特征处理 | 第20页 | 
| 2.2.3 统计模型与分类 | 第20-22页 | 
| 2.2.4 元算法 | 第22-23页 | 
| 2.3 数据集 | 第23-27页 | 
| 2.3.1 IEEE DCASE2013挑战数据集[47] | 第23-24页 | 
| 2.3.2 TUT Acoustic scenes 2016[48] | 第24-25页 | 
| 2.3.3 其他数据集 | 第25-27页 | 
| 2.4 本章小结 | 第27-30页 | 
| 第3章 基于注意力机制的声音场景分类方法研究 | 第30-56页 | 
| 3.1 应用注意力机制的动机 | 第30-32页 | 
| 3.2 自注意力及其他深度学习方法描述 | 第32-39页 | 
| 3.2.1 自注意力模型 | 第32-33页 | 
| 3.2.2 多抽头注意力模型 | 第33-34页 | 
| 3.2.3 递归神经网络 | 第34-36页 | 
| 3.2.4 双线性模型 | 第36-37页 | 
| 3.2.5 胶囊网络 | 第37-39页 | 
| 3.3 实验设置 | 第39-46页 | 
| 3.3.1 特征表达和预处理 | 第39-40页 | 
| 3.3.2 聚合分类结果 | 第40页 | 
| 3.3.3 数据集 | 第40页 | 
| 3.3.4 网络架构 | 第40-46页 | 
| 3.4 实验结果与分析 | 第46-53页 | 
| 3.5 本章小结 | 第53-56页 | 
| 第4章 基于参数迁移的声音场景深度分类方法研究 | 第56-66页 | 
| 4.1 迁移学习 | 第57-58页 | 
| 4.2 AudioSet数据集 | 第58-60页 | 
| 4.3 实验设置 | 第60-62页 | 
| 4.4 实验结果与分析 | 第62-63页 | 
| 4.5 本章小结 | 第63-66页 | 
| 第5章 总结与展望 | 第66-68页 | 
| 5.1 工作总结 | 第66-67页 | 
| 5.2 研究不足与展望 | 第67-68页 | 
| 参考文献 | 第68-76页 | 
| 攻读硕士学位期间主要的研究成果 | 第76-78页 | 
| 致谢 | 第78页 |