基于特征比对的音乐学唱系统设计与实现
摘要 | 第5-7页 |
Abstract | 第7-8页 |
1 绪论 | 第12-18页 |
1.1 研究背景及目的 | 第12-13页 |
1.2 音乐学唱系统国内外研究现状 | 第13-16页 |
1.2.1 技术相关研究现状 | 第13-15页 |
1.2.2 系统设计相关研究现状 | 第15-16页 |
1.3 论文的主要内容及结构 | 第16-18页 |
1.3.1 论文研究的主要内容 | 第16-17页 |
1.3.2 论文的框架结构 | 第17-18页 |
2 音乐特征概述 | 第18-26页 |
2.1 相关乐理知识 | 第18-20页 |
2.1.1 音的基本性质 | 第18-19页 |
2.1.2 全音与半音 | 第19页 |
2.1.3 基音与泛音 | 第19-20页 |
2.1.4 旋律 | 第20页 |
2.2 音乐数字化 | 第20-21页 |
2.2.1 音乐的数字化 | 第20-21页 |
2.2.2 音乐数字化与教育 | 第21页 |
2.3 相关数字音频的格式 | 第21-24页 |
2.3.1 波形类音频格式 | 第21-23页 |
2.3.2 指令类音频格式 | 第23-24页 |
2.4 本章小结 | 第24-26页 |
3 音乐学唱系统关键技术研究 | 第26-38页 |
3.1 演唱评价标准的制定 | 第26页 |
3.2 基于FMS的Web实时录音与保存 | 第26-30页 |
3.2.1 FMS的介绍与使用 | 第27-29页 |
3.2.2 实时录音的实现 | 第29页 |
3.2.3 实时录音的保存 | 第29-30页 |
3.3 录音文件的音高特征序列提取方法 | 第30-35页 |
3.3.1 采样 | 第30-31页 |
3.3.2 预滤波 | 第31页 |
3.3.3 加窗分帧 | 第31-32页 |
3.3.4 估计基音周期 | 第32页 |
3.3.5 生成音高序列 | 第32-33页 |
3.3.6 后处理 | 第33-35页 |
3.4 MIDI文件旋律特征提取方法 | 第35-37页 |
3.4.1 MIDI文件主旋律提取 | 第36页 |
3.4.2 MIDI主旋律的音高特征序列提取 | 第36-37页 |
3.5 本章小结 | 第37-38页 |
4 音乐学唱系统设计 | 第38-44页 |
4.1 需求分析 | 第38-39页 |
4.1.1 目标用户分析 | 第38页 |
4.1.2 功能需求分析 | 第38页 |
4.1.3 性能需求分析 | 第38-39页 |
4.2 框架设计 | 第39页 |
4.3 功能设计 | 第39-42页 |
4.3.1 模板音乐库模块 | 第40-41页 |
4.3.2 用户输入模块 | 第41页 |
4.3.3 音乐特征提取模块 | 第41页 |
4.3.4 相似度对比模块 | 第41-42页 |
4.3.5 反馈模块 | 第42页 |
4.4 本章小结 | 第42-44页 |
5 音乐学唱系统的实现及应用分析 | 第44-50页 |
5.1 音乐学唱系统的实现 | 第44-48页 |
5.1.1 系统开发环境及工具 | 第44页 |
5.1.2 系统功能模块实现 | 第44-48页 |
5.2 音乐学唱系统应用案例及效果分析 | 第48-49页 |
5.2.1 音乐学唱系统应用案例 | 第48页 |
5.2.2 音乐学唱系统应用效果分析 | 第48-49页 |
5.3 本章小结 | 第49-50页 |
6 总结与展望 | 第50-52页 |
6.1 研究总结 | 第50页 |
6.2 不足和展望 | 第50-52页 |
参考文献 | 第52-55页 |
攻读硕士学位期间发表的学术论文及参与的项目 | 第55-56页 |
致谢 | 第56页 |