摘要 | 第3-4页 |
ABSTRACT | 第4页 |
第1章 绪论 | 第7-13页 |
1.1 选题背景 | 第7-8页 |
1.2 国内外研究现状 | 第8-9页 |
1.3 主要研究内容 | 第9-10页 |
1.4 研究意义 | 第10-11页 |
1.5 论文章节安排 | 第11-13页 |
第2章 语言模型理论基础 | 第13-25页 |
2.1 语言模型 | 第13-14页 |
2.2 N-gram语言模型 | 第14-16页 |
2.2.1 模型概述 | 第14页 |
2.2.2 数据稀疏问题及平滑方法 | 第14-16页 |
2.3 语言模型自适应方法 | 第16-17页 |
2.4 循环神经网络语言模型 | 第17-20页 |
2.5 长短时记忆语言模型 | 第20-21页 |
2.6 语言模型的评价指标 | 第21-23页 |
2.6.1 困惑度 | 第21-22页 |
2.6.2 语音识别的词错误率 | 第22-23页 |
2.7 语言模型工具箱 | 第23-25页 |
2.7.1 SRILM | 第23-24页 |
2.7.2 RNNLM Toolkit | 第24页 |
2.7.3 CUED-RNNLM Toolkit | 第24-25页 |
第3章 藏语语言模型 | 第25-29页 |
3.1 藏语的特点 | 第25-26页 |
3.2 语料库的生成 | 第26-27页 |
3.3 藏语语言模型的建立 | 第27-28页 |
3.4 问题的提出 | 第28-29页 |
第4章 融合多领域数据的语言模型 | 第29-37页 |
4.1 插值语言模型 | 第29-33页 |
4.1.1 模型概述 | 第29-30页 |
4.1.2 实验验证与分析 | 第30-32页 |
4.1.3 总结 | 第32-33页 |
4.2 领域自适应循环神经网络语言模型 | 第33-37页 |
4.2.1 模型概述 | 第33-34页 |
4.2.2 实验验证与分析 | 第34-36页 |
4.2.3 总结 | 第36-37页 |
第5章 基于藏语部件的循环神经网络语言模型 | 第37-45页 |
5.1 模型概述 | 第37-40页 |
5.1.1 藏文部件的引入 | 第37-38页 |
5.1.2 模型结构介绍 | 第38-40页 |
5.2 试验验证与分析 | 第40-42页 |
5.2.1 融合藏语部件的循环神经网络语言模型的实验结果 | 第40-41页 |
5.2.2 与N元语法模型插值的结果 | 第41-42页 |
5.3 总结 | 第42-45页 |
第6章 总结与展望 | 第45-47页 |
6.1 工作总结 | 第45-46页 |
6.2 工作展望 | 第46-47页 |
参考文献 | 第47-51页 |
发表论文和参加科研情况说明 | 第51-53页 |
致谢 | 第53页 |