摘要 | 第3-4页 |
abstract | 第4页 |
第1章 绪论 | 第7-15页 |
1.1 研究背景及研究意义 | 第7-9页 |
1.2 国内外研究现状 | 第9-11页 |
1.2.1 量子语言模型及其相关模型 | 第9-10页 |
1.2.2 深度学习模型在问答任务上的应用 | 第10-11页 |
1.3 本文的研究内容 | 第11-12页 |
1.4 本文组织结构 | 第12-15页 |
第2章 量子语言模型 | 第15-21页 |
2.1 量子基础 | 第15-17页 |
2.1.1 量子状态空间 | 第15-16页 |
2.1.2 量子测量 | 第16-17页 |
2.1.3 密度矩阵 | 第17页 |
2.1.4 量子相对熵 | 第17页 |
2.2 量子语言模型在信息检索中的应用 | 第17-21页 |
2.2.1 量子语言模型的表示 | 第17-18页 |
2.2.2 量子语言模型的训练 | 第18-19页 |
2.2.3 使用量子语言模型为文档打分 | 第19-21页 |
第3章 深度学习模型基础 | 第21-27页 |
3.1 词的分布式表示 | 第21-23页 |
3.1.1 神经概率语言模型 | 第22页 |
3.1.2 循环神经网络语言模型 | 第22页 |
3.1.3 Word2vec | 第22-23页 |
3.2 卷积神经网络 | 第23-24页 |
3.3 循环神经网络 | 第24-25页 |
3.4 softmax回归 | 第25-27页 |
第4章 基于神经网络的量子语言模型及其应用 | 第27-39页 |
4.1 量子语言模型的不足 | 第27页 |
4.2 密度矩阵相似度度量 | 第27-28页 |
4.3 量子语言模型在问答任务中作用 | 第28-30页 |
4.4 基于embeddings的量子语言模型 | 第30-31页 |
4.5 卷积神经网络和循环神经网络在问答任务中的应用 | 第31-32页 |
4.6 基于神经网络的量子语言模型 | 第32-36页 |
4.6.1 NNQLM-I | 第32-35页 |
4.6.2 NNQLM-II | 第35-36页 |
4.7 基于神经网络的量子语言模型优势 | 第36-39页 |
第5章 实验与分析 | 第39-47页 |
5.1 数据集 | 第39-40页 |
5.1.1 TREC-QA | 第39-40页 |
5.1.2 WIKI-QA | 第40页 |
5.2 评价指标 | 第40-41页 |
5.3 实验方法 | 第41页 |
5.4 参数设置 | 第41-42页 |
5.5 实验结果及分析 | 第42-47页 |
5.5.1 实验一 | 第42-43页 |
5.5.2 实验二 | 第43页 |
5.5.3 实验三 | 第43-44页 |
5.5.4 实验四 | 第44-47页 |
第6章 总结和展望 | 第47-49页 |
参考文献 | 第49-53页 |
发表论文和参加科研情况说明 | 第53-55页 |
致谢 | 第55页 |