摘要 | 第3-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第11-17页 |
1.1 课题背景 | 第11-14页 |
1.2 研究意义和目的 | 第14-15页 |
1.3 论文组织 | 第15-16页 |
1.4 本章小结 | 第16-17页 |
第2章 相关技术综述 | 第17-29页 |
2.1 辅助沟通增强与替代系统 | 第17-19页 |
2.2 语音识别技术 | 第19-22页 |
2.2.1 语音识别技术的分类 | 第20-21页 |
2.2.2 科大讯飞语音识别技术 | 第21-22页 |
2.3 语音识别引擎的搭建 | 第22-26页 |
2.3.1 声学模型、HMM和HTK工具包的使用 | 第23-26页 |
2.3.2 解码器和Julius | 第26页 |
2.4 文本输入预测技术 | 第26-27页 |
2.5 本章小结 | 第27-29页 |
第3章 辅助沟通中非句法性的文本预测及康复训练 | 第29-46页 |
3.1 基于图标的输入及N-gram文本输入预测算法 | 第29-32页 |
3.1.1 图标作为基本输入单位 | 第30页 |
3.1.2 N-gram语言模型 | 第30-32页 |
3.1.3 基于N-gram的文本预测 | 第32页 |
3.2 无语序条件下的文本输入预测算法 | 第32-40页 |
3.2.1 基于N-gram的no-order算法 | 第33-34页 |
3.2.2 基于语义的sem算法 | 第34-35页 |
3.2.3 结合句子长度的混合算法 | 第35-36页 |
3.2.4 非句法性文本输入预测算法的可行性实验 | 第36-40页 |
3.3 基于语音评测的言语康复训练 | 第40-44页 |
3.3.1 语音评测技术的原理 | 第40-42页 |
3.3.2 词语训练 | 第42-44页 |
3.3.3 语句训练 | 第44页 |
3.4 基于用户语音的语音识别 | 第44-45页 |
3.5 本章小结 | 第45-46页 |
第4章 面向发音障碍人群的特定人语音识别系统 | 第46-56页 |
4.1 现有的语音识别系统和框架 | 第46-49页 |
4.1.1 科大讯飞语音识别系统 | 第46-48页 |
4.1.2 传统语音识别系统及其局限性 | 第48-49页 |
4.2 结合言语康复训练的语音识别系统框架 | 第49-51页 |
4.2.1 系统的整体视图 | 第49-50页 |
4.2.2 声学模型的更新 | 第50-51页 |
4.2.3 语音的再合成 | 第51页 |
4.2.4 基于康复言语训练的语音评测 | 第51页 |
4.3 新语音识别系统的构建 | 第51-54页 |
4.3.1 自适应的语音识别模块 | 第51-52页 |
4.3.2 语料的获取 | 第52页 |
4.3.3 声学模型的特征提取 | 第52-53页 |
4.3.4 以词为基元训练声学模型 | 第53-54页 |
4.3.5 语音识别框架测试实验 | 第54页 |
4.4 本章小结 | 第54-56页 |
第5章 系统的设计和实现 | 第56-71页 |
5.1 项目整体架构 | 第56-58页 |
5.2 辅助沟通模块的设计和实现 | 第58-62页 |
5.2.1 图标布局的设计 | 第59-60页 |
5.2.2 词语选择面板的使用 | 第60-61页 |
5.2.3 历史输入记录 | 第61-62页 |
5.3 语音相关模块的设计和实现 | 第62-65页 |
5.3.1 特定人语音识别及再合成模块的设计和实现 | 第62-63页 |
5.3.2 语音服务模块的设计和实现 | 第63-65页 |
5.4 言语康复训练模块的设计和实现 | 第65-66页 |
5.4.1 内置语音识别模块的设计 | 第65-66页 |
5.5 其它模块及其设计和实现 | 第66-70页 |
5.5.1 系统的网页端的设计和实现 | 第66-69页 |
5.5.2 反馈机制的设计和实现 | 第69-70页 |
5.6 本章小结 | 第70-71页 |
第6章 总结和展望 | 第71-73页 |
6.1 总结 | 第71-72页 |
6.2 展望 | 第72-73页 |
参考文献 | 第73-77页 |
致谢 | 第77页 |