摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第一章 绪论 | 第16-38页 |
1.1 研究背景及意义 | 第16-18页 |
1.2 国内外研究现状 | 第18-35页 |
1.2.1 语义表达技术现状 | 第18-24页 |
1.2.2 知识推理技术现状 | 第24-34页 |
1.2.3 发展趋势 | 第34-35页 |
1.3 本文主要内容及组织结构 | 第35-38页 |
1.3.1 主要内容 | 第35-36页 |
1.3.2 组织结构 | 第36-38页 |
第二章 融合多源信息与神经网络建模的词语语义表达方法 | 第38-60页 |
2.1 引言 | 第38-39页 |
2.2 融合海量文本与词汇语义知识的语义表达方法 | 第39-46页 |
2.2.1 语义表达机制 | 第39-41页 |
2.2.2 语义知识量化 | 第41-43页 |
2.2.3 SWE模型结构 | 第43-45页 |
2.2.4 模型训练及优化 | 第45-46页 |
2.3 词性信息监督下的语义表达方法 | 第46-49页 |
2.3.1 自然语言中的词性 | 第46-47页 |
2.3.2 PWE模型结构 | 第47-48页 |
2.3.3 模型训练及优化 | 第48-49页 |
2.4 实验 | 第49-58页 |
2.4.1 SWE实验 | 第49-55页 |
2.4.2 PWE实验 | 第55-58页 |
2.5 本章小结 | 第58-60页 |
第三章 面向常识推理的神经联想模型 | 第60-76页 |
3.1 引言 | 第60-61页 |
3.2 事件联想的典型特点 | 第61-63页 |
3.3 神经联想模型 | 第63-68页 |
3.3.1 NAM模型框架 | 第63-65页 |
3.3.2 DNN结构与训练方法 | 第65-66页 |
3.3.3 RMNN结构及优化 | 第66-67页 |
3.3.4 NAM模型的迁移学习策略 | 第67-68页 |
3.4 实验 | 第68-74页 |
3.4.1 通用实验配置 | 第68-69页 |
3.4.2 文本蕴含识别 | 第69-70页 |
3.4.3 知识三元组分类预测 | 第70-71页 |
3.4.4 常识知识问答 | 第71-72页 |
3.4.5 知识迁移学习 | 第72-74页 |
3.5 本章小结 | 第74-76页 |
第四章 基于海量文本的常识知识库自动构建 | 第76-86页 |
4.1 引言 | 第76-77页 |
4.2 基于海量文本的因果知识库构建 | 第77-81页 |
4.2.1 词典构建 | 第77-78页 |
4.2.2 目标知识确定 | 第78-79页 |
4.2.3 主要流程框架 | 第79页 |
4.2.4 潜在句子搜寻 | 第79-80页 |
4.2.5 因果知识抽取 | 第80-81页 |
4.3 实验 | 第81-83页 |
4.3.1 语料及实验配置 | 第81页 |
4.3.2 抽取结果 | 第81-83页 |
4.3.3 得分分布 | 第83页 |
4.4 本章小结 | 第83-86页 |
第五章 面向认知智能评测的自然语言推理系统 | 第86-108页 |
5.1 引言 | 第86-87页 |
5.2 Winograd Schema Challenge评测任务 | 第87-91页 |
5.2.1 Winograd Schema任务 | 第88-89页 |
5.2.2 Pronoun Disambiguation Problems任务 | 第89-91页 |
5.3 基于神经联想模型的因果推理系统 | 第91-95页 |
5.3.1 系统构建动机 | 第91-92页 |
5.3.2 系统框图 | 第92页 |
5.3.3 实验配置 | 第92-94页 |
5.3.4 实验结果 | 第94-95页 |
5.4 基于知识增强语义模型的推理系统 | 第95-106页 |
5.4.1 系统构建动机 | 第95-97页 |
5.4.2 系统框图 | 第97-98页 |
5.4.3 知识增强语义模型 | 第98-102页 |
5.4.4 PDP问题求解系统 | 第102-103页 |
5.4.5 实验配置 | 第103-104页 |
5.4.6 实验结果 | 第104-106页 |
5.5 本章小结 | 第106-108页 |
第六章 总结 | 第108-110页 |
6.1 本文的主要贡献与创新点 | 第108-109页 |
6.2 后续的研究工作 | 第109-110页 |
参考文献 | 第110-120页 |
个人简历及在读期间发表的学术论文 | 第120-124页 |
致谢 | 第124-125页 |