首页--工业技术论文--机械、仪表工业论文--仪器、仪表论文--耳鼻喉科器械论文

智能数字助听器中声场景分类的研究

摘要第5-6页
Abstract第6-7页
第一章 绪论第14-18页
    1.1 研究背景第14-15页
    1.2 助听器声场景分类的研究状况第15-16页
    1.3 本文的主要工作第16-17页
    1.4 论文的组织结构第17-18页
第二章 声场景分类的理论基础第18-28页
    2.1 声场景分类概述第18-19页
    2.2 声场景分类特征分析第19-23页
        2.2.1 基于帧特征的提取第19-22页
        2.2.2 基于段特征的提取第22-23页
    2.3 分类器的设计第23-27页
        2.3.1 基于规则的分类方法第23-24页
        2.3.2 最小距离分类法第24页
        2.3.3 统计模型分类法第24-27页
    2.4 本章小结第27-28页
第三章 声场景信号的显著性分析第28-44页
    3.1 选择性注意理论第28-29页
    3.2 视觉选择性注意模型第29-37页
        3.2.1 Itti模型第29-35页
        3.2.2 GBVS模型第35-37页
    3.3 声信号语谱图的显著性分析第37-42页
        3.3.1 声信号语谱图第37-38页
        3.3.2 语谱图的显著图参数第38-42页
    3.4 本章小结第42-44页
第四章 基于HMM的声场景分类第44-56页
    4.1 算法的结构图第44-45页
    4.2 声信号的预处理第45页
    4.3 特征分析与提取第45-50页
        4.3.1 显著图特征分析与提取第45-46页
        4.3.2 MFCC特征分析与提取第46-49页
        4.3.3 PCA算法降维第49-50页
    4.4 HMM模型第50-55页
        4.4.1 HMM的基本概念第50-51页
        4.4.2 HMM的三个基本问题第51-52页
        4.4.3 HMM基本算法第52-55页
    4.5 本章小结第55-56页
第五章 基于深度学习的声场景分类第56-70页
    5.1 深度学习的基本理论第56-59页
        5.1.1 深度学习的发展历程第56页
        5.1.2 深度学习的主要模型第56-58页
        5.1.3 深度学习的应用第58-59页
    5.2 深度学习常用方法第59-66页
        5.2.1 自动编码器第59-60页
        5.2.2 稀疏自动编码器第60-61页
        5.2.3 受限玻尔兹曼机第61-63页
        5.2.4 Gibbs采样第63-64页
        5.2.5 基于对比散度的快速学习算法第64-66页
    5.3 基于深度学习的计算声场景分类第66-69页
        5.3.1 Softmax分类器第66-67页
        5.3.2 基于深度学习的声场景分类第67-69页
    5.4 本章小结第69-70页
第六章 系统实现与实验结果第70-80页
    6.1 实验条件第70-71页
        6.1.1 软硬件条件第70页
        6.1.2 实验音频数据库第70页
        6.1.3 相关阈值及参数的设定第70-71页
    6.2 HMM模型实验结果与结论第71-75页
        6.2.1 语音与含噪语音的分类第71-72页
        6.2.2 噪声、语音、音乐和含噪语音的分类第72-74页
        6.2.3 特征维数对正确分类率的影响第74页
        6.2.4 HMM的状态参数对正确分类率的影响第74-75页
    6.3 深度学习模型实验结果与结论第75-79页
        6.3.1 语音与含噪语音的分类第75-76页
        6.3.2 噪声、语音、音乐和含噪语音的分类第76-77页
        6.3.3 神经网络参数对正确分类率的影响第77-79页
    6.4 本章小结第79-80页
第七章 总结与展望第80-82页
致谢第82-84页
参考文献第84-90页
攻读硕士学位期间发表的论文第90页

论文共90页,点击 下载论文
上一篇:基于投入产出模型的体育服务业关联效应研究
下一篇:私募股权投资基金对企业绩效影响的研究