基于深度学习的答案排序研究
摘要 | 第8-9页 |
ABSTRACT | 第9-10页 |
第一章 绪论 | 第11-19页 |
1.1 研究背景与意义 | 第11-13页 |
1.2 国内外研究现状 | 第13-16页 |
1.2.1 社区问答系统的答案排序 | 第13页 |
1.2.2 传统的答案排序方法 | 第13-16页 |
1.2.3 基于深度学习方法的答案排序 | 第16页 |
1.3 本文的研究内容 | 第16-17页 |
1.4 本文的组织结构 | 第17-19页 |
第二章 相关技术研究 | 第19-27页 |
2.1 排序学习 | 第19-21页 |
2.1.1 基于文本相关度的答案排序 | 第19-20页 |
2.1.2 基于重要性的答案排序 | 第20-21页 |
2.2 深度学习 | 第21-26页 |
2.2.1 词向量 | 第21-23页 |
2.2.2 基础神经网络模型 | 第23-24页 |
2.2.3 在自然语言处理上的应用 | 第24-26页 |
2.3 本章小结 | 第26-27页 |
第三章 基于双向LSTM的深度学习模型排序答案 | 第27-35页 |
3.1 基于上位词的数据预处理 | 第27-28页 |
3.2 基于双向LSTM和CNN的深度学习框架 | 第28-31页 |
3.2.1 语言模型 | 第28-30页 |
3.2.2 相似性匹配 | 第30页 |
3.2.3 隐藏层和softmax | 第30页 |
3.2.4 训练 | 第30-31页 |
3.3 实验和评测 | 第31-34页 |
3.3.1 实验数据与评价指标 | 第31-33页 |
3.3.2 实验结果及讨论 | 第33-34页 |
3.4 本章小结 | 第34-35页 |
第四章 基于注意力机制的改进模型 | 第35-51页 |
4.1 注意力模型的发展及原理 | 第35-40页 |
4.1.1 注意力模型的发展 | 第35页 |
4.1.2 图像主题生成中的Attention | 第35-36页 |
4.1.3 Attention模型的一般原理 | 第36-39页 |
4.1.4 注意力模型在自然语言处理上的应用 | 第39-40页 |
4.2 基于注意力机制的改进答案排序模型 | 第40-47页 |
4.2.1 基于注意力机制的模型框架 | 第40-42页 |
4.2.2 基于keras的模型实现 | 第42-47页 |
4.3 实验与评测 | 第47-49页 |
4.3.1 实验数据与评价指标 | 第47-48页 |
4.3.2 实验结果及讨论 | 第48-49页 |
4.4 本章小结 | 第49-51页 |
第五章 总结和展望 | 第51-53页 |
5.1 工作总结 | 第51-52页 |
5.2 工作展望 | 第52-53页 |
致谢 | 第53-55页 |
参考文献 | 第55-61页 |
作者在学期间取得的学术成果 | 第61页 |