基于场景上下文感知的多轮对话技术研究
| 摘要 | 第6-7页 |
| abstract | 第7页 |
| 第一章 绪论 | 第10-19页 |
| 1.1 课题来源 | 第10页 |
| 1.2 研究背景和意义 | 第10-12页 |
| 1.3 对话系统研究概况 | 第12-16页 |
| 1.3.1 基于人工规则的对话技术概况 | 第13页 |
| 1.3.2 检索式对话技术概况 | 第13-15页 |
| 1.3.3 生成式对话技术概况 | 第15-16页 |
| 1.4 论文的主要研究内容 | 第16-17页 |
| 1.5 本文的组织结构 | 第17-19页 |
| 第二章 基于循环神经网络的Seq2Seq模型 | 第19-31页 |
| 2.1 语言模型 | 第19-21页 |
| 2.1.1 基本原理 | 第19-20页 |
| 2.1.2 神经语言模型 | 第20-21页 |
| 2.2 词的分布式表示和词向量 | 第21-23页 |
| 2.2.1 Word2Vec词向量 | 第22-23页 |
| 2.2.2 GloVe词向量 | 第23页 |
| 2.3 循环神经网络 | 第23-29页 |
| 2.3.1 神经网络 | 第23-25页 |
| 2.3.2 典型循环神经网络 | 第25-26页 |
| 2.3.3 LSTM长短期记忆网络 | 第26-28页 |
| 2.3.4 GRU门控循环单元网络 | 第28-29页 |
| 2.4 Seq2Seq端到端模型 | 第29-30页 |
| 2.5 注意力机制 | 第30-31页 |
| 第三章 基于场景上下文感知的多轮对话技术 | 第31-44页 |
| 3.1 基于层级编码的固定场景多轮对话 | 第32-40页 |
| 3.1.1 词嵌入层 | 第34-35页 |
| 3.1.2 LSTM句编码器 | 第35-36页 |
| 3.1.3 句子级注意力与句子上下文表示 | 第36-37页 |
| 3.1.4 LSTM场景编码与场景上下文表示 | 第37-39页 |
| 3.1.5 LSTM句解码器与应答生成 | 第39-40页 |
| 3.2 基于场景上下文的场景感知多轮对话方法 | 第40-44页 |
| 第四章 多轮对话实验与评估 | 第44-56页 |
| 4.1 实验环境 | 第44-45页 |
| 4.1.1 硬件环境 | 第44页 |
| 4.1.2 软件环境 | 第44-45页 |
| 4.2 实验语料库构建 | 第45-49页 |
| 4.2.1 电视剧语料采集和预处理 | 第45-47页 |
| 4.2.2 电影语料采集和预处理 | 第47-48页 |
| 4.2.3 实验语料库详情 | 第48-49页 |
| 4.3 实验评估标准 | 第49-50页 |
| 4.3.1 词困惑度Perplexity | 第49-50页 |
| 4.3.2 词向量相似度 | 第50页 |
| 4.4 对比模型 | 第50-51页 |
| 4.5 模型参数与其他配置 | 第51-52页 |
| 4.6 实验结果与分析 | 第52-56页 |
| 4.6.1 性能评估 | 第52-54页 |
| 4.6.2 对话生成样例 | 第54-56页 |
| 第五章 结论与展望 | 第56-58页 |
| 5.1 结论 | 第56页 |
| 5.2 展望 | 第56-58页 |
| 参考文献 | 第58-63页 |
| 作者在攻读硕士学位期间公开发表的论文 | 第63-64页 |
| 作者在攻读硕士学位期间所参与的项目 | 第64-65页 |
| 致谢 | 第65页 |