摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第8-12页 |
1.1 研究背景及意义 | 第8-9页 |
1.2 课题的研究现状 | 第9-10页 |
1.3 论文的主要工作及结构 | 第10-12页 |
1.3.1 论文的主要工作 | 第10页 |
1.3.2 论文的结构 | 第10-12页 |
第二章 聋人发音特点介绍 | 第12-22页 |
2.1 发音器官介绍 | 第12-13页 |
2.2 语音的产生过程 | 第13-14页 |
2.3 语音的声学特性 | 第14-15页 |
2.4 聋人学习发音的特点 | 第15-21页 |
2.4.1 元音的发音部位和方法 | 第15-16页 |
2.4.2 辅 音的发音部位和方法 | 第16-18页 |
2.4.3 聋人学习汉语拼音的学习顺序 | 第18页 |
2.4.4 发音常见错误 | 第18-21页 |
2.5 本章小结 | 第21-22页 |
第三章 Android 相关技术介绍 | 第22-34页 |
3.1 Android 框架介绍 | 第22-23页 |
3.2 Android 系统音频框架 | 第23-28页 |
3.2.1 Android 系统音频框架介绍 | 第23-24页 |
3.2.2 Android 音频重采样机制 | 第24-26页 |
3.2.3 Android 默认采样率 | 第26-27页 |
3.2.4 MediaPlayer 类和 AudioRecord 类 | 第27-28页 |
3.3 JNI 技术 | 第28-33页 |
3.3.1 JNI 技术总体概述 | 第28页 |
3.3.2 JNI 的作用 | 第28-29页 |
3.3.3 本地方法和其他方法的区别 | 第29页 |
3.3.4 如何注册 native 函数 | 第29-31页 |
3.3.5 JNI 中 Java 类型和 C/C++类型的对应关系 | 第31-32页 |
3.3.6 JNI 调用 C 程序和调用 C++程序的区别 | 第32-33页 |
3.4 本章小结 | 第33-34页 |
第四章 聋人语音教学软件的算法设计 | 第34-47页 |
4.1 语音识别技术介绍 | 第34页 |
4.2 常用的语音识别技术对比 | 第34-36页 |
4.2.1 基于声学和语音学的方法 | 第35页 |
4.2.2 模板匹配的方法 | 第35-36页 |
4.2.3 神经网络的方法 | 第36页 |
4.3 语音识别领域中的马尔科夫模型 | 第36-37页 |
4.4 HMM 模型的实现 | 第37-46页 |
4.4.1 HMM 模型拓扑结构的选择 | 第37-38页 |
4.4.2 HMM 初始模型的参数选取 | 第38-39页 |
4.4.3 HMM 中 B 参数的选择 | 第39-40页 |
4.4.4 比例因子的选取 | 第40-41页 |
4.4.5 MFCC 参数的提取 | 第41-43页 |
4.4.6 语音识别的实现与分析 | 第43-46页 |
4.5 本章小结 | 第46-47页 |
第五章 聋人语音教学软件的实现 | 第47-65页 |
5.1 声音采集 | 第47-49页 |
5.1.1 语音采集过程 | 第47页 |
5.1.2 Wav 文件格式 | 第47-48页 |
5.1.3 Android 音频录制与播放 | 第48-49页 |
5.2 语音识别功能的 C++实现 | 第49-50页 |
5.3 调用 JNI 方法 | 第50-53页 |
5.4 Android 上的程序设计及结果展示 | 第53-64页 |
5.4.1 设计流程 | 第54-56页 |
5.4.2 界面及结果展示 | 第56-64页 |
5.5 本章小结 | 第64-65页 |
第六章 总结与展望 | 第65-67页 |
6.1 总结 | 第65页 |
6.2 展望 | 第65-67页 |
参考文献 | 第67-70页 |
发表论文和参加科研情况说明 | 第70-71页 |
致谢 | 第71页 |