摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-16页 |
1.1 课题背景与意义 | 第8页 |
1.2 研究现状 | 第8-14页 |
1.2.1 文本蕴含识别的研究现状 | 第8-10页 |
1.2.2 阅读理解的研究现状 | 第10-11页 |
1.2.3 深度学习在NLP领域的前沿方法 | 第11-14页 |
1.3 研究内容及章节安排 | 第14-16页 |
第2章 基于Attention机制的文本蕴含识别 | 第16-32页 |
2.1 SNLI语料及基础模型介绍 | 第16-21页 |
2.1.1 文本蕴含识别及SNLI语料介绍 | 第16-17页 |
2.1.2 循环神经网络 | 第17-19页 |
2.1.3 长短期记忆模型 | 第19-20页 |
2.1.4 卷积神经网络 | 第20-21页 |
2.2 深度学习在文本蕴含中的应用 | 第21-28页 |
2.2.1 基于特征的分类方法 | 第21-22页 |
2.2.2 基于Attention的模型 | 第22-26页 |
2.2.3 其他文本蕴含的深度学习方法 | 第26-28页 |
2.3 基于CNN的Attention机制 | 第28-29页 |
2.4 实验与分析 | 第29-31页 |
2.4.1 实验配置 | 第29-30页 |
2.4.2 实验结果与分析 | 第30-31页 |
2.5 本章小结 | 第31-32页 |
第3章 基于Pre-attention机制的文本蕴含识别 | 第32-42页 |
3.1 基础技术介绍 | 第32-34页 |
3.1.1 Memory Networks | 第32-33页 |
3.1.2 正则化方法 | 第33页 |
3.1.3 BLSTM | 第33-34页 |
3.1.4 ADADELTA优化方法 | 第34页 |
3.2 前注意记忆网络 | 第34-36页 |
3.3 PMN在文本蕴含识别中的应用 | 第36-37页 |
3.4 实验与分析 | 第37-41页 |
3.4.1 实验配置 | 第38-39页 |
3.4.2 实验结果 | 第39-40页 |
3.4.3 实验分析 | 第40-41页 |
3.5 本章小结 | 第41-42页 |
第4章 基于文本蕴含识别的阅读理解研究 | 第42-52页 |
4.1 相关模型和语料介绍 | 第42-47页 |
4.1.1 文本理解的现有相关研究 | 第42-44页 |
4.1.2 CBT语料的介绍 | 第44-46页 |
4.1.3 其他深度学习基础技术 | 第46-47页 |
4.2 基于窗口的记忆网络 | 第47-48页 |
4.2.1 编码memory和query | 第47页 |
4.2.2 自监督 | 第47页 |
4.2.3 时间特征 | 第47-48页 |
4.2.4 模型预测 | 第48页 |
4.3 文本蕴含识别在阅读理解中的应用 | 第48-49页 |
4.4 实验与分析 | 第49-51页 |
4.4.1 基线方法 | 第49-50页 |
4.4.2 实验配置与分析 | 第50-51页 |
4.5 本章小结 | 第51-52页 |
结论 | 第52-54页 |
参考文献 | 第54-58页 |
攻读硕士学位期间发表的学术论文及其他成果 | 第58-60页 |
致谢 | 第60-61页 |