首页--艺术论文--音乐论文--音乐技术理论与方法论文--基本乐科论文--读谱法、记谱法论文

基于深度学习的哼唱音频乐谱识别技术研究

摘要第4-5页
ABSTRACT第5-6页
第1章 绪论第10-18页
    1.1 研究背景及意义第10-11页
    1.2 国内外研究现状第11-14页
        1.2.1 哼唱识别的研究现状第11-12页
        1.2.2 深度学习的发展和研究现状第12-14页
    1.3 研究内容和技术路线第14-16页
        1.3.1 研究内容第14-15页
        1.3.2 技术路线第15-16页
    1.4 论文组织结构第16-18页
第2章 深度学习理论基础及其资源第18-34页
    2.1 神经网络基本结构第18-20页
        2.1.1 神经元第18页
        2.1.2 激活函数第18-19页
        2.1.3 典型结构第19-20页
    2.2 神经网络训练第20-23页
        2.2.1 损失函数第20-21页
        2.2.2 目标函数优化算法第21页
        2.2.3 反向传播算法第21-22页
        2.2.4 梯度消失和梯度爆炸第22-23页
    2.3 卷积神经网络第23-25页
        2.3.1 基本结构第23-24页
        2.3.2 卷积层第24页
        2.3.3 池化层第24-25页
    2.4 循环神经网络第25-28页
        2.4.1 基本结构第25-26页
        2.4.2 训练过程第26-27页
        2.4.3 长短期记忆网络第27-28页
    2.5 深度学习平台与工具第28-33页
        2.5.1 TensorFlow第28-29页
        2.5.2 Caffe第29-30页
        2.5.3 Theano第30-31页
        2.5.4 Keras第31-32页
        2.5.5 scikit-learn第32-33页
    2.6 本章小结第33-34页
第3章 深度学习与音频分析第34-41页
    3.1 哼唱信号处理流程第34-35页
    3.2 采样和量化第35-36页
    3.3 哼唱信号预处理第36-38页
        3.3.1 滤波处理第36页
        3.3.2 预加重处理第36页
        3.3.3 加窗分帧第36-38页
    3.4 音符起始点检测第38页
    3.5 哼唱信号特征表示第38-40页
        3.5.1 线性预测倒谱系数第39页
        3.5.2 梅尔频率倒谱系数第39-40页
    3.6 本章小结第40-41页
第4章 哼唱识别深度学习框架与设计第41-47页
    4.1 框架总体架构第41-42页
    4.2 哼唱识别神经网络模型第42-43页
    4.3 网络核心组件第43-46页
        4.3.1 多层卷积第43-44页
        4.3.2 批量归一化第44页
        4.3.3 线性整流函数第44-45页
        4.3.4 门控循环单元第45-46页
        4.3.5 全连接层第46页
    4.4 本章小结第46-47页
第5章 原型系统开发及实验结果第47-57页
    5.1 哼唱音频乐谱识别原型系统第47-49页
        5.1.1 系统设计与实现第47-48页
        5.1.2 系统运行示例第48-49页
    5.2 实验设置第49-50页
        5.2.1 实验环境第49页
        5.2.2 实验数据集第49-50页
        5.2.3 性能评估指标第50页
    5.3 训练神经网络第50-53页
        5.3.1 防止过拟合第50-52页
        5.3.2 超参数优化第52-53页
    5.4 哼唱识别神经网络性能分析第53-55页
    5.5 本章小结第55-57页
第6章 总结与展望第57-60页
    6.1 本文主要研究工作及创新点第57-58页
        6.1.1 研究工作总结第57-58页
        6.1.2 创新点第58页
    6.2 展望第58-60页
参考文献第60-65页
致谢第65-66页

论文共66页,点击 下载论文
上一篇:基于深度特征的高分辨率遥感图像检索
下一篇:垃圾焚烧炉控制系统的设计与实现