| 摘要 | 第1-6页 |
| Abstract | 第6-10页 |
| 1 绪论 | 第10-16页 |
| ·研究背景 | 第10页 |
| ·研究意义 | 第10-11页 |
| ·国内外研究现状 | 第11-13页 |
| ·本文研究内容以及安排 | 第13-16页 |
| 2 音乐识别基础研究 | 第16-24页 |
| ·音乐特征分析 | 第16-19页 |
| ·音高 | 第16-17页 |
| ·时值和节奏节拍 | 第17页 |
| ·音强与音色 | 第17-18页 |
| ·调式调性 | 第18-19页 |
| ·语音信号处理 | 第19-23页 |
| ·语音信号预处理 | 第19-20页 |
| ·语音信号短时分析 | 第20-23页 |
| ·本章小结 | 第23-24页 |
| 3 音乐识别算法研究 | 第24-46页 |
| ·音乐分割算法 | 第24-29页 |
| ·短时能零积 | 第25-26页 |
| ·基于小波变换的音频分割 | 第26-27页 |
| ·基于倒谱特征的音频分割 | 第27-29页 |
| ·音高提取算法 | 第29-32页 |
| ·谐波峰值法 | 第29-30页 |
| ·并行处理法 | 第30-31页 |
| ·小波分析法 | 第31-32页 |
| ·调式提取算法 | 第32-34页 |
| ·乐音识别算法 | 第34-44页 |
| ·优化的乐音分割算法 | 第34-37页 |
| ·优化的音高识别算法 | 第37-40页 |
| ·仿真实验结果及分析 | 第40-44页 |
| ·本章小结 | 第44-46页 |
| 4 音乐识别在 iOS 平台上的关键技术与设计 | 第46-64页 |
| ·iOS 开发介绍 | 第46-50页 |
| ·iOS 与 iPad 介绍 | 第46-48页 |
| ·M-V-C 开发模式 | 第48-49页 |
| ·iOS SDK 介绍 | 第49-50页 |
| ·iOS 音频处理关键技术 | 第50-53页 |
| ·核心音频架构 | 第50页 |
| ·iOS 支持的音频文件 | 第50-51页 |
| ·通过 AVFoundation 框架函数获取音频 | 第51-53页 |
| ·iOS 文件处理关键技术 | 第53-57页 |
| ·音乐文件格式 | 第53-55页 |
| ·pMusic 文件格式 | 第55-57页 |
| ·iOS 交互式可视化关键技术 | 第57-61页 |
| ·Quartz 2D | 第57-58页 |
| ·识别结果可视化 | 第58-59页 |
| ·识别结果交互 | 第59-61页 |
| ·程序框架及流程 | 第61-62页 |
| ·性能优化 | 第62-63页 |
| ·本章小结 | 第63-64页 |
| 5 总结与展望 | 第64-66页 |
| ·总结 | 第64页 |
| ·展望 | 第64-66页 |
| 参考文献 | 第66-70页 |
| 致谢 | 第70-71页 |
| 个人简历、在学期间发表的学术论文与研究成果 | 第71页 |