| 致谢 | 第4-5页 |
| 摘要 | 第5-6页 |
| Abstract | 第6页 |
| 缩写、符号清单、术语表 | 第10-14页 |
| 1 绪论 | 第14-19页 |
| 1.1 研究背景 | 第14-15页 |
| 1.2 研究现状 | 第15-18页 |
| 1.2.1 深度学习的研究现状 | 第15页 |
| 1.2.2 深度学习在自然语言处理领域的研究现状 | 第15-16页 |
| 1.2.3 基于传统方法的自然语言推理的研究现状 | 第16-17页 |
| 1.2.4 基于深度学习方法的自然语言推理的研究现状 | 第17-18页 |
| 1.3 本文主要工作 | 第18-19页 |
| 2 SNLI数据集介绍及相关技术介绍 | 第19-36页 |
| 2.1 SNLI数据集介绍 | 第19页 |
| 2.2 词的向量化模型 | 第19-23页 |
| 2.2.1 One-hot模型 | 第19-20页 |
| 2.2.2 词袋模型 | 第20-21页 |
| 2.2.3 词向量模型 | 第21-23页 |
| 2.3 深度学习相关技术 | 第23-33页 |
| 2.3.1 循环神经网络 | 第23-24页 |
| 2.3.2 长短期记忆网络 | 第24-25页 |
| 2.3.3 双向循环网络 | 第25-26页 |
| 2.3.4 Dropout机制 | 第26-27页 |
| 2.3.5 激活函数 | 第27-30页 |
| 2.3.6 优化器介绍 | 第30-33页 |
| 2.4 自然语言处理相关技术 | 第33-35页 |
| 2.4.1 词性标注 | 第33-34页 |
| 2.4.2 依存句法分析 | 第34-35页 |
| 2.5 本章小节 | 第35-36页 |
| 3 基于顺序序列的自然语言推理算法 | 第36-48页 |
| 3.1 基于Bi-LSTM的编码模型 | 第36-40页 |
| 3.1.1 词向量层 | 第37-38页 |
| 3.1.2 句向量编码层 | 第38页 |
| 3.1.3 混合层 | 第38页 |
| 3.1.4 分类层 | 第38页 |
| 3.1.5 实验结果 | 第38-40页 |
| 3.2 基于Sentence Fusion的编码模型 | 第40-43页 |
| 3.2.1 基于Sentence Fusion的编码模型 | 第40页 |
| 3.2.2 Sentence Fusion模块 | 第40-42页 |
| 3.2.3 实验结果与分析 | 第42-43页 |
| 3.3 融合词性信息的Sentence Fusion的编码模型 | 第43-47页 |
| 3.3.1 传统词向量编码的不足 | 第43-44页 |
| 3.3.2 词性信息的分布式向量表达 | 第44-45页 |
| 3.3.3 融合词性信息的Sentence Fusion的编码模型 | 第45页 |
| 3.3.4 实验结果分析 | 第45-47页 |
| 3.4 本章小节 | 第47-48页 |
| 4 基于树型结构的自然语言推理算法 | 第48-55页 |
| 4.1 树型LSTM网络 | 第48-49页 |
| 4.2 基于树型LSTM的编码模型 | 第49-52页 |
| 4.2.1 基于树型LSTM的编码模型的模型结构 | 第49-50页 |
| 4.2.2 实验结果与分析 | 第50-52页 |
| 4.3 基于融合句法信息的序列-树型编码模型 | 第52-54页 |
| 4.3.1 基于融合句法信息的序列-树型编码模型的模型结构 | 第52-53页 |
| 4.3.2 实验结果与分析 | 第53-54页 |
| 4.4 本章小节 | 第54-55页 |
| 5 总结与展望 | 第55-57页 |
| 5.1 本文工作总结 | 第55-56页 |
| 5.2 未来工作展望 | 第56-57页 |
| 参考文献 | 第57-63页 |
| 攻读硕士学位期间的主要成果 | 第63页 |