首页--工业技术论文--无线电电子学、电信技术论文--通信论文--电声技术和语音信号处理论文--语音信号处理论文

基于神经网络的音乐音频自动合成的研究与实现

摘要第4-6页
abstract第6-7页
第1章 绪论第10-15页
    1.1 研究意义与背景第10-11页
    1.2 研究现状第11-13页
    1.3 研究内容第13页
    1.4 本文的组织结构第13-15页
第2章 音乐音频自动合成框架概述第15-25页
    2.1 音频文件解析第15-17页
        2.1.1 音频文件参数第15-16页
        2.1.2 格式化音频数据第16-17页
    2.2 基于听觉的音频特征第17-20页
        2.2.1 梅尔频率倒谱系数(MFCC)第18-19页
        2.2.2 其它音乐特征第19-20页
    2.3 应用于自动作曲及音乐合成的模型概述第20-24页
        2.3.1 隐马尔科夫模型(HMM)第20-21页
        2.3.2 人工神经网络第21-24页
    2.4 本章小结第24-25页
第3章 基于循环神经网络的音乐音频自动合成算法第25-35页
    3.1 形式化描述第25-26页
    3.2 自动作曲模型第26-31页
        3.2.1 训练数据集组织第26-28页
        3.2.2 模型训练与预测第28-31页
    3.3 音乐合成第31-34页
    3.4 本章小结第34-35页
第4章 实验结果及分析第35-45页
    4.1 基于LSTM的音乐音频自动合成实验第35-37页
        4.1.1 测试数据与参数设置第35页
        4.1.2 测试实验第35-37页
    4.2 基于神经网络的音乐音频自动合成的人机交互实验第37-40页
    4.3 基于GRU的音乐音频自动合成实验第40-44页
        4.3.1 基于GRU模型的训练和预测第40-41页
        4.3.2 测试实验第41-44页
    4.4 本章小结第44-45页
第5章 总结与展望第45-47页
    5.1 总结第45页
    5.2 展望第45-47页
参考文献第47-51页
作者简介及研究成果第51-52页
致谢第52-53页

论文共53页,点击 下载论文
上一篇:基于FFMpeg的稳定应用层组播流媒体直播系统研究
下一篇:基于协变量偏移的批标准化深度网络研究