摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第一章 绪论 | 第9-16页 |
1.1 论文研究的背景及意义 | 第9-10页 |
1.2 智能对话系统研究现状 | 第10-14页 |
1.2.1 基于规则的对话系统 | 第11-12页 |
1.2.2 基于检索的对话系统 | 第12-13页 |
1.2.3 基于生成式的对话系统 | 第13-14页 |
1.3 本文研究内容及章节安排 | 第14-16页 |
第二章 基于RNN的序列到序列的对话生成 | 第16-38页 |
2.1 引言 | 第16页 |
2.2 主要涉及的神经网络简介 | 第16-25页 |
2.2.1 循环神经网络RNN | 第16-22页 |
2.2.2 LSTM及其他门控RNN | 第22-25页 |
2.3 序列到序列模型 | 第25-29页 |
2.3.1 编码序列的其他方法 | 第26-28页 |
2.3.2 生成输出及Beam Search算法 | 第28-29页 |
2.4 注意力(ATTENTION)机制 | 第29-33页 |
2.4.1 Encoder-Decoders中的表达问题 | 第30页 |
2.4.2 Attention | 第30-32页 |
2.4.3 计算Attention的得分 | 第32-33页 |
2.5 实验设计与结果 | 第33-37页 |
2.5.1 实验数据介绍 | 第33-34页 |
2.5.2 不同RNN Cell对生成模型的影响 | 第34-35页 |
2.5.3 Attention机制对生成模型的影响 | 第35-37页 |
2.6 小结 | 第37-38页 |
第三章 对话生成的对抗学习的研究 | 第38-51页 |
3.1 引言 | 第38页 |
3.2 生成对抗网络简介 | 第38-40页 |
3.3 GAN应用在NLP中存在的问题 | 第40-41页 |
3.4 强化学习简介 | 第41-43页 |
3.4.1 基于策略的强化学习 | 第42-43页 |
3.5 蒙特卡洛树搜索(MONTE CARLO TREE SEARCH) | 第43-44页 |
3.6 模型介绍 | 第44-47页 |
3.6.1 Reward定义及策略梯度更新 | 第45-47页 |
3.6.2 生成模型G和判别模型D | 第47页 |
3.7 实验设计及结果 | 第47-50页 |
3.7.1 评价指标 | 第48-50页 |
3.8 本章小结 | 第50-51页 |
第四章 面向非任务混合模型的对话生成 | 第51-63页 |
4.1 引言 | 第51页 |
4.2 数据集介绍 | 第51-54页 |
4.2.1 结构化数据 | 第52-54页 |
4.2.2 问答对语料集 | 第54页 |
4.3 总体设计 | 第54-57页 |
4.3.1 基于规则的回复 | 第55-56页 |
4.3.2 基于检索的回复 | 第56-57页 |
4.3.3 基于深度神经网络的生成式回复 | 第57页 |
4.4 实验结果及分析 | 第57-62页 |
4.5 本章小结 | 第62-63页 |
第五章 结论 | 第63-64页 |
参考文献 | 第64-67页 |
在校期间发表的论文、科研成果等 | 第67-68页 |
致谢 | 第68页 |