智能数字助听器中声场景分类的研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第14-18页 |
1.1 研究背景 | 第14-15页 |
1.2 助听器声场景分类的研究状况 | 第15-16页 |
1.3 本文的主要工作 | 第16-17页 |
1.4 论文的组织结构 | 第17-18页 |
第二章 声场景分类的理论基础 | 第18-28页 |
2.1 声场景分类概述 | 第18-19页 |
2.2 声场景分类特征分析 | 第19-23页 |
2.2.1 基于帧特征的提取 | 第19-22页 |
2.2.2 基于段特征的提取 | 第22-23页 |
2.3 分类器的设计 | 第23-27页 |
2.3.1 基于规则的分类方法 | 第23-24页 |
2.3.2 最小距离分类法 | 第24页 |
2.3.3 统计模型分类法 | 第24-27页 |
2.4 本章小结 | 第27-28页 |
第三章 声场景信号的显著性分析 | 第28-44页 |
3.1 选择性注意理论 | 第28-29页 |
3.2 视觉选择性注意模型 | 第29-37页 |
3.2.1 Itti模型 | 第29-35页 |
3.2.2 GBVS模型 | 第35-37页 |
3.3 声信号语谱图的显著性分析 | 第37-42页 |
3.3.1 声信号语谱图 | 第37-38页 |
3.3.2 语谱图的显著图参数 | 第38-42页 |
3.4 本章小结 | 第42-44页 |
第四章 基于HMM的声场景分类 | 第44-56页 |
4.1 算法的结构图 | 第44-45页 |
4.2 声信号的预处理 | 第45页 |
4.3 特征分析与提取 | 第45-50页 |
4.3.1 显著图特征分析与提取 | 第45-46页 |
4.3.2 MFCC特征分析与提取 | 第46-49页 |
4.3.3 PCA算法降维 | 第49-50页 |
4.4 HMM模型 | 第50-55页 |
4.4.1 HMM的基本概念 | 第50-51页 |
4.4.2 HMM的三个基本问题 | 第51-52页 |
4.4.3 HMM基本算法 | 第52-55页 |
4.5 本章小结 | 第55-56页 |
第五章 基于深度学习的声场景分类 | 第56-70页 |
5.1 深度学习的基本理论 | 第56-59页 |
5.1.1 深度学习的发展历程 | 第56页 |
5.1.2 深度学习的主要模型 | 第56-58页 |
5.1.3 深度学习的应用 | 第58-59页 |
5.2 深度学习常用方法 | 第59-66页 |
5.2.1 自动编码器 | 第59-60页 |
5.2.2 稀疏自动编码器 | 第60-61页 |
5.2.3 受限玻尔兹曼机 | 第61-63页 |
5.2.4 Gibbs采样 | 第63-64页 |
5.2.5 基于对比散度的快速学习算法 | 第64-66页 |
5.3 基于深度学习的计算声场景分类 | 第66-69页 |
5.3.1 Softmax分类器 | 第66-67页 |
5.3.2 基于深度学习的声场景分类 | 第67-69页 |
5.4 本章小结 | 第69-70页 |
第六章 系统实现与实验结果 | 第70-80页 |
6.1 实验条件 | 第70-71页 |
6.1.1 软硬件条件 | 第70页 |
6.1.2 实验音频数据库 | 第70页 |
6.1.3 相关阈值及参数的设定 | 第70-71页 |
6.2 HMM模型实验结果与结论 | 第71-75页 |
6.2.1 语音与含噪语音的分类 | 第71-72页 |
6.2.2 噪声、语音、音乐和含噪语音的分类 | 第72-74页 |
6.2.3 特征维数对正确分类率的影响 | 第74页 |
6.2.4 HMM的状态参数对正确分类率的影响 | 第74-75页 |
6.3 深度学习模型实验结果与结论 | 第75-79页 |
6.3.1 语音与含噪语音的分类 | 第75-76页 |
6.3.2 噪声、语音、音乐和含噪语音的分类 | 第76-77页 |
6.3.3 神经网络参数对正确分类率的影响 | 第77-79页 |
6.4 本章小结 | 第79-80页 |
第七章 总结与展望 | 第80-82页 |
致谢 | 第82-84页 |
参考文献 | 第84-90页 |
攻读硕士学位期间发表的论文 | 第90页 |