摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第13-25页 |
1.1 研究背景和意义 | 第13-17页 |
1.1.1 研究背景 | 第13-14页 |
1.1.2 研究意义 | 第14-17页 |
1.2 研究现状阐述 | 第17-22页 |
1.2.1 依赖外部特征提取并使用传统分类器的模型 | 第17-18页 |
1.2.2 基于外部语义和语法分析树的神经网络的关系分类模型 | 第18-21页 |
1.2.3 基于注意力机制(Attention)的神经网络模型 | 第21-22页 |
1.3 本文主要工作和创新点 | 第22页 |
1.4 文章结构安排 | 第22-25页 |
第二章 数据知识表示和评价指标 | 第25-39页 |
2.1 实验数据集 | 第25-28页 |
2.2 评价标准 | 第28-30页 |
2.3 实验预处理 | 第30页 |
2.4 词向量 | 第30-36页 |
2.4.1 CBOW模型 | 第32-33页 |
2.4.2 SKIP-GRAM模型 | 第33页 |
2.4.3 层次softmax模型 | 第33-35页 |
2.4.4 负采样模型 | 第35-36页 |
2.4.5 词向量语料库和训练工具 | 第36页 |
2.5 小结 | 第36-39页 |
第三章 基于语言学特征提取的传统关系分类模型 | 第39-51页 |
3.1 传统语言学特征 | 第39-41页 |
3.1.1 词汇特征 | 第39-40页 |
3.1.2 依存语法特征 | 第40-41页 |
3.2 支持向量机 | 第41-47页 |
3.2.1 支持向量机概述 | 第42页 |
3.2.2 线性可分支持向量机 | 第42-44页 |
3.2.3 带软边界的支持向量机 | 第44-45页 |
3.2.4 非线性支持向量机 | 第45-47页 |
3.3 实验设置及结果 | 第47-49页 |
3.4 小结 | 第49-51页 |
第四章 基于语法分析树的神经网络的关系分类模型 | 第51-63页 |
4.1 研究背景 | 第51页 |
4.2 依存语法树在神经网络中的特征表达 | 第51-52页 |
4.3 基于语法树特征的神经网络模型 | 第52-60页 |
4.3.1 神经网络 | 第52-54页 |
4.3.2 优化方法 | 第54-55页 |
4.3.3 循环神经网络 | 第55-58页 |
4.3.4 卷积神经网络 | 第58-59页 |
4.3.5 基于语法树特征的循环神经网络模型 | 第59-60页 |
4.4 实验设置及结果 | 第60-61页 |
4.5 小结 | 第61-63页 |
第五章 基于注意力机制的神经网络关系分类模型的提出 | 第63-81页 |
5.1 注意力机制 | 第63-66页 |
5.2 注意力机制在命名实体关系识别问题中的作用分析 | 第66-67页 |
5.3 命名实体关系识别任务已有的注意力机制模型 | 第67-69页 |
5.3.1 单层注意力模型 | 第67-68页 |
5.3.2 卷积注意力模型 | 第68-69页 |
5.4 自匹配多层注意力模型 | 第69-76页 |
5.4.1 自匹配单层注意力模型 | 第69-74页 |
5.4.2 自匹配多层注意力模型 | 第74-75页 |
5.4.3 实体对关系增强的自匹配多层注意力模型 | 第75-76页 |
5.5 实验设置和结果汇总 | 第76-81页 |
第六章 总结与展望 | 第81-85页 |
6.1 本文工作总结 | 第81页 |
6.2 主要创新点总结 | 第81-82页 |
6.3 未来工作展望 | 第82-85页 |
参考文献 | 第85-89页 |
致谢 | 第89页 |