| 摘要 | 第3-4页 |
| abstract | 第4页 |
| 第1章 绪论 | 第7-15页 |
| 1.1 研究背景及研究意义 | 第7-9页 |
| 1.2 国内外研究现状 | 第9-11页 |
| 1.2.1 量子语言模型及其相关模型 | 第9-10页 |
| 1.2.2 深度学习模型在问答任务上的应用 | 第10-11页 |
| 1.3 本文的研究内容 | 第11-12页 |
| 1.4 本文组织结构 | 第12-15页 |
| 第2章 量子语言模型 | 第15-21页 |
| 2.1 量子基础 | 第15-17页 |
| 2.1.1 量子状态空间 | 第15-16页 |
| 2.1.2 量子测量 | 第16-17页 |
| 2.1.3 密度矩阵 | 第17页 |
| 2.1.4 量子相对熵 | 第17页 |
| 2.2 量子语言模型在信息检索中的应用 | 第17-21页 |
| 2.2.1 量子语言模型的表示 | 第17-18页 |
| 2.2.2 量子语言模型的训练 | 第18-19页 |
| 2.2.3 使用量子语言模型为文档打分 | 第19-21页 |
| 第3章 深度学习模型基础 | 第21-27页 |
| 3.1 词的分布式表示 | 第21-23页 |
| 3.1.1 神经概率语言模型 | 第22页 |
| 3.1.2 循环神经网络语言模型 | 第22页 |
| 3.1.3 Word2vec | 第22-23页 |
| 3.2 卷积神经网络 | 第23-24页 |
| 3.3 循环神经网络 | 第24-25页 |
| 3.4 softmax回归 | 第25-27页 |
| 第4章 基于神经网络的量子语言模型及其应用 | 第27-39页 |
| 4.1 量子语言模型的不足 | 第27页 |
| 4.2 密度矩阵相似度度量 | 第27-28页 |
| 4.3 量子语言模型在问答任务中作用 | 第28-30页 |
| 4.4 基于embeddings的量子语言模型 | 第30-31页 |
| 4.5 卷积神经网络和循环神经网络在问答任务中的应用 | 第31-32页 |
| 4.6 基于神经网络的量子语言模型 | 第32-36页 |
| 4.6.1 NNQLM-I | 第32-35页 |
| 4.6.2 NNQLM-II | 第35-36页 |
| 4.7 基于神经网络的量子语言模型优势 | 第36-39页 |
| 第5章 实验与分析 | 第39-47页 |
| 5.1 数据集 | 第39-40页 |
| 5.1.1 TREC-QA | 第39-40页 |
| 5.1.2 WIKI-QA | 第40页 |
| 5.2 评价指标 | 第40-41页 |
| 5.3 实验方法 | 第41页 |
| 5.4 参数设置 | 第41-42页 |
| 5.5 实验结果及分析 | 第42-47页 |
| 5.5.1 实验一 | 第42-43页 |
| 5.5.2 实验二 | 第43页 |
| 5.5.3 实验三 | 第43-44页 |
| 5.5.4 实验四 | 第44-47页 |
| 第6章 总结和展望 | 第47-49页 |
| 参考文献 | 第49-53页 |
| 发表论文和参加科研情况说明 | 第53-55页 |
| 致谢 | 第55页 |