摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第12-24页 |
1.1 研究背景和意义 | 第12-13页 |
1.2 连续语音识别的基本原理 | 第13-15页 |
1.2.1 特征提取 | 第13-14页 |
1.2.2 声学模型 | 第14页 |
1.2.3 解码器 | 第14-15页 |
1.2.4 语言模型 | 第15页 |
1.3 语言模型技术的发展及现状 | 第15-19页 |
1.3.1 n-gram模型 | 第16页 |
1.3.2 区分性模型 | 第16-18页 |
1.3.3 神经网络语言模型 | 第18-19页 |
1.4 语言模型的评价标准 | 第19-20页 |
1.4.1 困惑度 | 第19-20页 |
1.4.2 词错误率 | 第20页 |
1.5 论文的研究内容及结构安排 | 第20-24页 |
1.5.1 论文的研究内容 | 第20-21页 |
1.5.2 论文的结构安排 | 第21-24页 |
第二章 循环神经网络语言模型 | 第24-34页 |
2.1 循环神经网络模型结构 | 第24-25页 |
2.2 循环神经网络训练算法 | 第25-28页 |
2.2.1 反向传播算法 | 第26-27页 |
2.2.2 通过时间的反向传播算法 | 第27-28页 |
2.3 基于词类的输出层结构改进 | 第28-30页 |
2.4 实验结果与分析 | 第30-32页 |
2.4.1 实验设置 | 第30页 |
2.4.2 实验分析 | 第30-32页 |
2.5 本章小结 | 第32-34页 |
第三章 基于循环神经网络语言模型的解码算法 | 第34-42页 |
3.1 语音识别解码的基本算法 | 第34-35页 |
3.2 基于循环神经网络语言模型的解码算法 | 第35-38页 |
3.2.1 基于Lattice的方法 | 第35-36页 |
3.2.2 基于N-best的方法 | 第36-37页 |
3.2.3 基于缓存神经网络模型算法 | 第37-38页 |
3.3 实验结果与分析 | 第38-41页 |
3.3.1 基线系统的构建 | 第38页 |
3.3.2 实验设置 | 第38-39页 |
3.3.3 实验分析 | 第39-41页 |
3.4 本章小结 | 第41-42页 |
第四章 基于词向量特征的循环神经网络语言模型 | 第42-54页 |
4.1 语言模型的长距离相依问题 | 第42-43页 |
4.2 基于上下文特征的循环神经网络语言模型 | 第43-44页 |
4.3 词向量特征 | 第44-46页 |
4.3.1 词向量定义 | 第44-45页 |
4.3.2 上下文词向量的提取 | 第45-46页 |
4.4 实验结果与分析 | 第46-52页 |
4.4.1 基于Penn Treebank语料库的实验 | 第46-48页 |
4.4.2 基于微软语料库的实验 | 第48-49页 |
4.4.3 基于WSJ语料库的实验 | 第49-52页 |
4.5 本章小节 | 第52-54页 |
第五章 基于循环神经网络语言模型的自适应 | 第54-62页 |
5.1 常用的语言模型自适应技术 | 第54-56页 |
5.1.1 线性插值自适应方法 | 第54-55页 |
5.1.2 基于MAP的自适应方法 | 第55页 |
5.1.3 基于MDI的自适应方法 | 第55-56页 |
5.2 循环神经网络语言模型的自适应方法 | 第56-59页 |
5.2.1 循环神经网络语言模型自适应框架 | 第56-57页 |
5.2.2 循环神经网络语言模型的自适应训练方法 | 第57-58页 |
5.2.3 主题特征的提取 | 第58-59页 |
5.3 实验结果与分析 | 第59-61页 |
5.3.1 实验设置 | 第59-60页 |
5.3.2 实验分析 | 第60-61页 |
5.4 本章小节 | 第61-62页 |
第六章 总结 | 第62-64页 |
一、本文主要工作 | 第62-63页 |
二、下一步研究方向 | 第63-64页 |
致谢 | 第64-66页 |
参考文献 | 第66-74页 |
作者简历 | 第74页 |