| 摘要 | 第4-5页 | 
| Abstract | 第5-6页 | 
| 第一章 绪论 | 第13-25页 | 
| 1.1 研究背景和意义 | 第13-17页 | 
| 1.1.1 研究背景 | 第13-14页 | 
| 1.1.2 研究意义 | 第14-17页 | 
| 1.2 研究现状阐述 | 第17-22页 | 
| 1.2.1 依赖外部特征提取并使用传统分类器的模型 | 第17-18页 | 
| 1.2.2 基于外部语义和语法分析树的神经网络的关系分类模型 | 第18-21页 | 
| 1.2.3 基于注意力机制(Attention)的神经网络模型 | 第21-22页 | 
| 1.3 本文主要工作和创新点 | 第22页 | 
| 1.4 文章结构安排 | 第22-25页 | 
| 第二章 数据知识表示和评价指标 | 第25-39页 | 
| 2.1 实验数据集 | 第25-28页 | 
| 2.2 评价标准 | 第28-30页 | 
| 2.3 实验预处理 | 第30页 | 
| 2.4 词向量 | 第30-36页 | 
| 2.4.1 CBOW模型 | 第32-33页 | 
| 2.4.2 SKIP-GRAM模型 | 第33页 | 
| 2.4.3 层次softmax模型 | 第33-35页 | 
| 2.4.4 负采样模型 | 第35-36页 | 
| 2.4.5 词向量语料库和训练工具 | 第36页 | 
| 2.5 小结 | 第36-39页 | 
| 第三章 基于语言学特征提取的传统关系分类模型 | 第39-51页 | 
| 3.1 传统语言学特征 | 第39-41页 | 
| 3.1.1 词汇特征 | 第39-40页 | 
| 3.1.2 依存语法特征 | 第40-41页 | 
| 3.2 支持向量机 | 第41-47页 | 
| 3.2.1 支持向量机概述 | 第42页 | 
| 3.2.2 线性可分支持向量机 | 第42-44页 | 
| 3.2.3 带软边界的支持向量机 | 第44-45页 | 
| 3.2.4 非线性支持向量机 | 第45-47页 | 
| 3.3 实验设置及结果 | 第47-49页 | 
| 3.4 小结 | 第49-51页 | 
| 第四章 基于语法分析树的神经网络的关系分类模型 | 第51-63页 | 
| 4.1 研究背景 | 第51页 | 
| 4.2 依存语法树在神经网络中的特征表达 | 第51-52页 | 
| 4.3 基于语法树特征的神经网络模型 | 第52-60页 | 
| 4.3.1 神经网络 | 第52-54页 | 
| 4.3.2 优化方法 | 第54-55页 | 
| 4.3.3 循环神经网络 | 第55-58页 | 
| 4.3.4 卷积神经网络 | 第58-59页 | 
| 4.3.5 基于语法树特征的循环神经网络模型 | 第59-60页 | 
| 4.4 实验设置及结果 | 第60-61页 | 
| 4.5 小结 | 第61-63页 | 
| 第五章 基于注意力机制的神经网络关系分类模型的提出 | 第63-81页 | 
| 5.1 注意力机制 | 第63-66页 | 
| 5.2 注意力机制在命名实体关系识别问题中的作用分析 | 第66-67页 | 
| 5.3 命名实体关系识别任务已有的注意力机制模型 | 第67-69页 | 
| 5.3.1 单层注意力模型 | 第67-68页 | 
| 5.3.2 卷积注意力模型 | 第68-69页 | 
| 5.4 自匹配多层注意力模型 | 第69-76页 | 
| 5.4.1 自匹配单层注意力模型 | 第69-74页 | 
| 5.4.2 自匹配多层注意力模型 | 第74-75页 | 
| 5.4.3 实体对关系增强的自匹配多层注意力模型 | 第75-76页 | 
| 5.5 实验设置和结果汇总 | 第76-81页 | 
| 第六章 总结与展望 | 第81-85页 | 
| 6.1 本文工作总结 | 第81页 | 
| 6.2 主要创新点总结 | 第81-82页 | 
| 6.3 未来工作展望 | 第82-85页 | 
| 参考文献 | 第85-89页 | 
| 致谢 | 第89页 |