摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第16-23页 |
1.1 研究背景 | 第16-19页 |
1.2 研究内容与贡献 | 第19-20页 |
1.3 本文组织结构 | 第20-23页 |
第2章 相关研究工作综述 | 第23-46页 |
2.1 基于传统的文本特征的文本表示方方法 | 第23-24页 |
2.1.1 基于词频-逆文档频率的文本表示 | 第23-24页 |
2.1.2 基于N-Gram的文本表示 | 第24页 |
2.2 基于传统文本主题知识的文本表示方方法 | 第24-26页 |
2.2.1 LDA模型 | 第24-25页 |
2.2.2 Topic Relevance Weighting Model | 第25-26页 |
2.3 基于神经网络的无监督的文本表示模型 | 第26-34页 |
2.3.1 词嵌入模型 | 第26-28页 |
2.3.2 Paragraph Vector模型 | 第28-31页 |
2.3.3 Skip-Thought Vectors | 第31-32页 |
2.3.4 Hierarchical Document Vector向量模型 | 第32-33页 |
2.3.5 Doc2Sent2Vec模型 | 第33-34页 |
2.4 基于经典深度神经网络的有监督的文本表示模型 | 第34-38页 |
2.4.1 使用卷积神经网络对文本进行表示 | 第34-35页 |
2.4.2 使用循环神经网络对文本进行表示 | 第35-37页 |
2.4.3 使用递归神经网络对文本进行表示 | 第37-38页 |
2.5 结合文本数据结构的神经网络模型 | 第38-42页 |
2.5.1 Conv/LSTM-GRNN模型 | 第38-39页 |
2.5.2 Hierarchical Attention Networks模型 | 第39-41页 |
2.5.3 User Product Attention Network模型 | 第41-42页 |
2.6 引入外部知识对文本进行表示 | 第42-45页 |
2.6.1 Knowledge-aware Bidirectional LSTMs模型 | 第43-45页 |
2.7 本章小结 | 第45-46页 |
第3章 结合概率形知识库和基于神经网络的分布式文本表示的模型框架 | 第46-67页 |
3.1 引言 | 第46-47页 |
3.2 Probase:一个大规模上下位概率形知识库 | 第47-48页 |
3.2.1 Probase在本文中的使用 | 第47-48页 |
3.3 文本概念向量框架 | 第48-54页 |
3.3.1 文本概念化 | 第48-52页 |
3.3.2 文本向量化表示 | 第52-54页 |
3.4 实验评估与讨论 | 第54-66页 |
3.4.1 跨领域文本分类 | 第54-60页 |
3.4.2 情感分类 | 第60-66页 |
3.5 本章小结 | 第66-67页 |
第4章 结合知识图谱实体向量的层次神经网络模型 | 第67-88页 |
4.1 引言 | 第67页 |
4.2 知识图实体向量 | 第67-68页 |
4.3 知识驱动的层次神经网络 | 第68-73页 |
4.3.1 词层面的表示 | 第68-69页 |
4.3.2 句子层面的表示 | 第69-71页 |
4.3.3 文档层面的表示 | 第71-72页 |
4.3.4 分类 | 第72-73页 |
4.4 实验 | 第73-86页 |
4.4.1 数据集 | 第73-75页 |
4.4.2 对比基准线 | 第75-76页 |
4.4.3 实验设置 | 第76-77页 |
4.4.4 试验结果和讨论 | 第77-79页 |
4.4.5 不同的外部知识图谱数据集对知识驱动的层次神经网络模型的影响 | 第79-81页 |
4.4.6 不同的知识图谱嵌入实现方式对知识驱动的层次神经网络模型的影响 | 第81-84页 |
4.4.7 使用不同的词向量对知识驱动的层次神经网络模型的影响 | 第84-85页 |
4.4.8 使用不同的序列编码器对知识驱动的层次神经网络模型的影响 | 第85-86页 |
4.5 本章小结 | 第86-88页 |
第5章 结合attention机制和外部知识图谱的层次神经网络模型 | 第88-103页 |
5.1 引言 | 第88-89页 |
5.2 Attention机制 | 第89页 |
5.3 结合attention机制的知识驱动的层次神经网络模型 | 第89-94页 |
5.3.1 生成句子表示 | 第89-92页 |
5.3.2 生成文档表示 | 第92-94页 |
5.4 实验 | 第94-101页 |
5.4.1 数据集 | 第94-96页 |
5.4.2 对比基准线 | 第96-98页 |
5.4.3 实验设置 | 第98-99页 |
5.4.4 实验结果和分析 | 第99-100页 |
5.4.5 使用不同的序列编码器对KPHAN模型的影响 | 第100-101页 |
5.5 本章小结 | 第101-103页 |
第6章 总结与展望 | 第103-105页 |
6.1 总结 | 第103-104页 |
6.2 展望 | 第104-105页 |
参考文献 | 第105-113页 |
攻读博士学位期间主要的研究成果 | 第113-115页 |
致谢 | 第115页 |