首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文

基于多深度模型集成的音频场景分类方法研究

摘要第4-5页
ABSTRACT第5-6页
第1章 绪论第9-18页
    1.1 课题背景及研究目的和意义第9页
    1.2 国内外研究现状与分析第9-17页
        1.2.1 音频场景分类的研究进展第9-13页
        1.2.2 深度学习方法的研究进展第13-15页
        1.2.3 集成学习方法的研究进展第15-16页
        1.2.4 目前方法存在的问题第16-17页
    1.3 本文主要研究内容第17页
    1.4 本文组织结构第17-18页
第2章 音频场景分类基线系统第18-30页
    2.1 引言第18页
    2.2 特征处理第18-22页
        2.2.1 MFCC特征和对数梅尔频谱特征第19-22页
    2.3 GMM模型的训练第22-27页
        2.3.1 EM算法第22-25页
        2.3.2 GMM模型第25-27页
    2.4 实验工具与实验数据库第27-29页
        2.4.1 实验工具第27-28页
        2.4.2 实验数据库第28页
        2.4.3 评价指标第28页
        2.4.4 实验结果与分析第28-29页
    2.5 本章小结第29-30页
第3章 基于深度学习的音频场景分类方法第30-51页
    3.1 引言第30页
    3.2 基于深度学习的音频场景分类方法第30-44页
        3.2.1 多层感知机(MLP)的训练第31-35页
        3.2.2 卷积神经网络( CNN)的训练第35-38页
        3.2.3 长短时网络( LSTM)的训练第38-44页
    3.3 模型的加速和防过拟合第44-47页
        3.3.1 Dropout机制介绍第44-46页
        3.3.2 Batch Normalization(BN)机制介绍第46-47页
    3.4 实验与分析第47-50页
        3.4.1 实验数据与设置第48-49页
        3.4.2 实验结果与分析第49-50页
    3.5 本章小结第50-51页
第4章 基于深度学习的音频场景分类方法的改进第51-59页
    4.1 引言第51页
    4.2 基于段处理技术的LSTM音频场景分类方法第51-54页
    4.3 基于ATTENTION机制的MLP音频场景分类方法第54-57页
    4.4 实验与分析第57-58页
        4.4.1 实验数据与设置第57-58页
        4.4.2 实验结果与分析第58页
    4.5 本章小结第58-59页
第5章 基于集成学习的音频场景分类方法第59-68页
    5.1 引言第59页
    5.2 基于简单融合技术的音频场景分类方法第59-62页
    5.3 基于BAGGING框架集成选择方法的音频场景分类方法第62-65页
    5.4 实验与分析第65-67页
        5.4.1 实验数据与设置第65页
        5.4.2 实验结果与分析第65-67页
    5.5 本章小结第67-68页
结论第68-69页
参考文献第69-78页
致谢第78页

论文共78页,点击 下载论文
上一篇:基于深度学习的图像编码方法研究
下一篇:连续小推力发动机输出指向调节机构测试设备研制