网络知识资源深层表示学习模型研究
摘要 | 第4-6页 |
ABSTRACT | 第6-8页 |
第1章 绪论 | 第11-17页 |
1.1 引言 | 第11-13页 |
1.2 网络知识资源表示研究背景 | 第13页 |
1.3 文本表示与命名实体识别研究现状 | 第13-15页 |
1.4 本文研究内容与主要工作 | 第15-16页 |
1.5 本文的组织结构 | 第16-17页 |
第2章 网络知识资源的表示方法 | 第17-26页 |
2.1 常见文本表示方法 | 第17-18页 |
2.1.1 向量空间模型 | 第17-18页 |
2.1.2 基于主题模型的文本表示方法 | 第18页 |
2.2 深度学习相关理论与发展 | 第18-21页 |
2.2.1 深度置信网络 | 第19页 |
2.2.2 栈式自动编码器 | 第19-20页 |
2.2.3 卷积神经网络 | 第20-21页 |
2.3 词向量相关理论与发展 | 第21-22页 |
2.4 Word2vec词向量 | 第22-25页 |
2.4.1 Skip-Gram模型 | 第23-24页 |
2.4.2 CBOW连续词袋模型 | 第24-25页 |
2.5 本章小结 | 第25-26页 |
第3章 信息提取与命名实体识别 | 第26-38页 |
3.1 信息提取技术 | 第26-28页 |
3.1.1 信息提取的目标 | 第26-27页 |
3.1.2 信息提取技术的发展 | 第27-28页 |
3.2 命名实体识别任务 | 第28页 |
3.3 领域命名实体识别 | 第28页 |
3.4 命名实体识别相关方法 | 第28-31页 |
3.4.1 基于规则 | 第29页 |
3.4.2 基于词典 | 第29-30页 |
3.4.3 基于统计 | 第30-31页 |
3.5 条件随机场 | 第31-37页 |
3.5.1 条件随机场概述 | 第31页 |
3.5.2 模型描述 | 第31-35页 |
3.5.3 参数估计 | 第35页 |
3.5.4 优化算法 | 第35-36页 |
3.5.5 条件随机场解码 | 第36-37页 |
3.6 本章小结 | 第37-38页 |
第4章 算法知识领域实体识别 | 第38-50页 |
4.1 领域命名实体识别流程 | 第38-39页 |
4.2 实验详细描述 | 第39-47页 |
4.2.1 网络知识资源到文档的转化 | 第39-40页 |
4.2.2 确定实体与标注方法 | 第40-41页 |
4.2.3 语料库生成 | 第41-43页 |
4.2.4 构建特征 | 第43-47页 |
4.2.5 CRF++模型训练 | 第47页 |
4.3 实验结果与分析 | 第47-49页 |
4.4 本章小结 | 第49-50页 |
第5章 网络知识资源深层表示模型 | 第50-65页 |
5.1 模型框架 | 第50-51页 |
5.2 网络知识资源深层表示的定义 | 第51-53页 |
5.3 词向量的训练实验 | 第53-56页 |
5.3.1 预处理 | 第53页 |
5.3.2 Word2vec词向量训练 | 第53-56页 |
5.4 网络知识资源深层表示的生成 | 第56-58页 |
5.5 网络知识资源深层表示的应用 | 第58-64页 |
5.5.1 网络解题报告的聚类实验 | 第58-62页 |
5.5.2 网络解题报告的搜索 | 第62-64页 |
5.6 本章小结 | 第64-65页 |
第6章 结束语 | 第65-66页 |
6.1 论文工作总结 | 第65页 |
6.2 未来研究工作展望 | 第65-66页 |
参考文献 | 第66-69页 |
附录 | 第69-71页 |
1 汉语词性对照表[北大标准/中科院标准] | 第69-70页 |
2 Crf++参数 | 第70-71页 |
致谢 | 第71页 |