基于场景上下文感知的多轮对话技术研究
摘要 | 第6-7页 |
abstract | 第7页 |
第一章 绪论 | 第10-19页 |
1.1 课题来源 | 第10页 |
1.2 研究背景和意义 | 第10-12页 |
1.3 对话系统研究概况 | 第12-16页 |
1.3.1 基于人工规则的对话技术概况 | 第13页 |
1.3.2 检索式对话技术概况 | 第13-15页 |
1.3.3 生成式对话技术概况 | 第15-16页 |
1.4 论文的主要研究内容 | 第16-17页 |
1.5 本文的组织结构 | 第17-19页 |
第二章 基于循环神经网络的Seq2Seq模型 | 第19-31页 |
2.1 语言模型 | 第19-21页 |
2.1.1 基本原理 | 第19-20页 |
2.1.2 神经语言模型 | 第20-21页 |
2.2 词的分布式表示和词向量 | 第21-23页 |
2.2.1 Word2Vec词向量 | 第22-23页 |
2.2.2 GloVe词向量 | 第23页 |
2.3 循环神经网络 | 第23-29页 |
2.3.1 神经网络 | 第23-25页 |
2.3.2 典型循环神经网络 | 第25-26页 |
2.3.3 LSTM长短期记忆网络 | 第26-28页 |
2.3.4 GRU门控循环单元网络 | 第28-29页 |
2.4 Seq2Seq端到端模型 | 第29-30页 |
2.5 注意力机制 | 第30-31页 |
第三章 基于场景上下文感知的多轮对话技术 | 第31-44页 |
3.1 基于层级编码的固定场景多轮对话 | 第32-40页 |
3.1.1 词嵌入层 | 第34-35页 |
3.1.2 LSTM句编码器 | 第35-36页 |
3.1.3 句子级注意力与句子上下文表示 | 第36-37页 |
3.1.4 LSTM场景编码与场景上下文表示 | 第37-39页 |
3.1.5 LSTM句解码器与应答生成 | 第39-40页 |
3.2 基于场景上下文的场景感知多轮对话方法 | 第40-44页 |
第四章 多轮对话实验与评估 | 第44-56页 |
4.1 实验环境 | 第44-45页 |
4.1.1 硬件环境 | 第44页 |
4.1.2 软件环境 | 第44-45页 |
4.2 实验语料库构建 | 第45-49页 |
4.2.1 电视剧语料采集和预处理 | 第45-47页 |
4.2.2 电影语料采集和预处理 | 第47-48页 |
4.2.3 实验语料库详情 | 第48-49页 |
4.3 实验评估标准 | 第49-50页 |
4.3.1 词困惑度Perplexity | 第49-50页 |
4.3.2 词向量相似度 | 第50页 |
4.4 对比模型 | 第50-51页 |
4.5 模型参数与其他配置 | 第51-52页 |
4.6 实验结果与分析 | 第52-56页 |
4.6.1 性能评估 | 第52-54页 |
4.6.2 对话生成样例 | 第54-56页 |
第五章 结论与展望 | 第56-58页 |
5.1 结论 | 第56页 |
5.2 展望 | 第56-58页 |
参考文献 | 第58-63页 |
作者在攻读硕士学位期间公开发表的论文 | 第63-64页 |
作者在攻读硕士学位期间所参与的项目 | 第64-65页 |
致谢 | 第65页 |