摘要 | 第5-7页 |
ABSTRACT | 第7-9页 |
第一章 引言 | 第13-28页 |
1.1 研究背景及意义 | 第13-16页 |
1.2 国内外研究现状 | 第16-25页 |
1.2.1 自然语言处理发展历程 | 第16-18页 |
1.2.2 自然语言处理研究现状 | 第18-22页 |
1.2.3 自动答题领域研究现状 | 第22-25页 |
1.3 本文主要研究内容及组织结构 | 第25-28页 |
1.3.1 主要内容 | 第26页 |
1.3.2 组织结构 | 第26-28页 |
第二章 多维度语义分析答题方法 | 第28-50页 |
2.1 英语考试自动答题任务介绍 | 第28-34页 |
2.1.1 任务介绍 | 第29-31页 |
2.1.2 实验数据集 | 第31-33页 |
2.1.3 本章安排介绍 | 第33-34页 |
2.2 N-Gram语言模型和隐语义分析方法 | 第34-36页 |
2.2.1 基于N-Gram语言模型方法 | 第34-35页 |
2.2.2 基于隐语义分析LSA方法 | 第35-36页 |
2.3 固定搭配特征自动挖掘 | 第36-41页 |
2.3.1 基于PCFG树的固定搭配规则抽取 | 第37-38页 |
2.3.2 基于依存句法树的固定搭配规则抽取 | 第38-41页 |
2.4 动词时态预测模型 | 第41-44页 |
2.4.1 动词时态影响因素分析 | 第41-42页 |
2.4.2 基于句法分析的动词时态预测模型 | 第42-44页 |
2.5 多维度语义分析答题方法 | 第44-46页 |
2.6 实验结果 | 第46-49页 |
2.6.1 固定搭配抽取实验结果 | 第46页 |
2.6.2 时态预测模型实验结果 | 第46-47页 |
2.6.3 多维度融合模型实验结果 | 第47-48页 |
2.6.4 错误样例分析 | 第48-49页 |
2.7 本章小结 | 第49-50页 |
第三章 深度句子语义建模答题方法 | 第50-79页 |
3.1 主流句子语义建模技术 | 第50-58页 |
3.1.1 基于词嵌入线性组合的方法 | 第51-52页 |
3.1.2 基于循环神经网络的方法 | 第52-56页 |
3.1.3 基于卷积神经网络的方法 | 第56-58页 |
3.2 对立语义词嵌入增强模型 | 第58-71页 |
3.2.1 词语的对立语义 | 第60-62页 |
3.2.2 SCE词嵌入表达模型 | 第62-63页 |
3.2.3 MCE词嵌入表达模型 | 第63-64页 |
3.2.4 SDR词嵌入表达模型 | 第64-65页 |
3.2.5 实验过程及结论分析 | 第65-71页 |
3.3 深度句子语义建模答题方法 | 第71-77页 |
3.3.1 基于LSTM语言模型的无监督答题方法 | 第71页 |
3.3.2 基于深度语义排序模型的有监督答题方法 | 第71-73页 |
3.3.3 实验结论与分析 | 第73-77页 |
3.4 本章小结 | 第77-79页 |
第四章 基于序列与句法融合模型的答题方法 | 第79-97页 |
4.1 句法结构的作用 | 第79-82页 |
4.2 基于依存句法的句子语义建模 | 第82-90页 |
4.2.1 基于依存句法的Tree-LSTM句子语义建模 | 第84-85页 |
4.2.2 融合依存句法的LSTM句子语义建模 | 第85-87页 |
4.2.3 实验结论及分析 | 第87-90页 |
4.3 序列与句法特征融合的答题方法 | 第90-95页 |
4.3.1 句子序列的多状态语义特征 | 第90-92页 |
4.3.2 多源信息融合模型的答题方法 | 第92页 |
4.3.3 实验结果与分析 | 第92-95页 |
4.4 本章小结 | 第95-97页 |
第五章 总结 | 第97-100页 |
5.1 本文的主要贡献与创新点 | 第97-98页 |
5.2 后续的研究工作 | 第98-100页 |
参考文献 | 第100-109页 |
致谢 | 第109-110页 |
在读期间发表的学术论文与取得的其他研究成果 | 第110-111页 |