摘要 | 第5-6页 |
ABSTRACT | 第6页 |
主要符号对照表 | 第13-14页 |
第一章 绪论 | 第14-17页 |
1.1 研究背景 | 第14-15页 |
1.2 论文的主要研究工作 | 第15-17页 |
1.2.1 本课题的主要贡献 | 第15页 |
1.2.2 全文的组织结构 | 第15-17页 |
第二章 统计语言模型概览和其在语音识别中的应用 | 第17-28页 |
2.1 概览 | 第17页 |
2.2 语言模型的评价标准 | 第17-19页 |
2.2.1 困惑度 | 第17-18页 |
2.2.2 词错误率 | 第18-19页 |
2.3 对统计语言模型中一些概念的解释 | 第19-20页 |
2.4 N元组语言模型 | 第20-22页 |
2.4.1 最大似然估计 | 第21-22页 |
2.4.2 N元组语言模型的不足 | 第22页 |
2.5 前神经网络时代的语言模型 | 第22-24页 |
2.5.1 规则语言模型 | 第23页 |
2.5.2 词聚类的语言模型 | 第23-24页 |
2.6 语言模型和语音识别 | 第24-26页 |
2.7 本章小结 | 第26-28页 |
第三章 神经网络语言模型 | 第28-47页 |
3.1 前向神经网络概览 | 第28-31页 |
3.1.1 前向神经网络的定义和前向传播 | 第28-30页 |
3.1.2 前向神经网络的训练 | 第30-31页 |
3.1.3 mini-batch训练 | 第31页 |
3.2 词向量概念的引入 | 第31-33页 |
3.3 前向神经网络语言模型 | 第33-35页 |
3.3.1 使用高效数学运算库对神经网络计算进行加速 | 第35页 |
3.4 循环神经网络语言模型 | 第35-38页 |
3.4.1 循环神经网络语言模型的定义 | 第35-36页 |
3.4.2 沿时反向传播算法 | 第36-38页 |
3.5 关于循环神经网络语言模型的一些进阶的讨论 | 第38-42页 |
3.5.1 梯度爆炸和梯度截断 | 第39-40页 |
3.5.2 循环神经网络的并行训练 | 第40-41页 |
3.5.3 深度循环神经网络 | 第41页 |
3.5.4 通过词类来加速输出层的计算 | 第41-42页 |
3.6 长短时记忆单元(LSTM)以及LSTM语言模型 | 第42-44页 |
3.6.1 长短时记忆单元(LSTM)的结构 | 第42-43页 |
3.6.2 常量的误差流 | 第43-44页 |
3.6.3 丢弃法(dropout)训练 | 第44页 |
3.7 双向循环神经网络 | 第44-46页 |
3.8 本章小结 | 第46-47页 |
第四章 结构化词向量的语言模型 | 第47-54页 |
4.1 动机 | 第47-48页 |
4.2 结构化词向量的RNNLM | 第48-49页 |
4.3 实验 | 第49-53页 |
4.3.1 语音识别的实验结果 | 第50-51页 |
4.3.2 讨论和分析 | 第51-53页 |
4.4 本章小结 | 第53-54页 |
第五章 使用噪声对比估计训练双向语言模型 | 第54-61页 |
5.1 动机 | 第54-55页 |
5.2 训练方法 | 第55-58页 |
5.2.1 模型的建模 | 第55-56页 |
5.2.2 双向语言模型的训练 | 第56-58页 |
5.3 实验部分 | 第58-60页 |
5.3.1 数据集 | 第58页 |
5.3.2 伪PPL测试 | 第58-59页 |
5.3.3 在ptb-rescore集上的测试 | 第59-60页 |
5.4 本章小结 | 第60-61页 |
第六章 使用LSTM结构来训练更深的DNN | 第61-68页 |
6.1 介绍 | 第61页 |
6.2 模型描述 | 第61-63页 |
6.2.1 LSTM-DNN的数学定义 | 第61-62页 |
6.2.2 GLSTM-DNN的数学定义 | 第62-63页 |
6.3 实验部分 | 第63-67页 |
6.3.1 AMI上的实验 | 第63-66页 |
6.3.2 Switchboard集上的实验 | 第66-67页 |
6.4 本章小结 | 第67-68页 |
全文总结 | 第68-69页 |
参考文献 | 第69-74页 |
致谢 | 第74-75页 |
攻读学位期间发表的学术论文 | 第75-76页 |
攻读学位期间申请的专利 | 第76-77页 |
攻读学位期间参与的项目 | 第77页 |