中文摘要 | 第3-4页 |
英文摘要 | 第4-5页 |
1 绪论 | 第8-13页 |
1.1 研究背景与意义 | 第8-10页 |
1.1.1 研究背景 | 第8页 |
1.1.2 聊天机器人分类 | 第8-9页 |
1.1.3 研究目的与意义 | 第9-10页 |
1.2 研究现状 | 第10-11页 |
1.3 本文主要工作与章节安排 | 第11-12页 |
1.4 本章小结 | 第12-13页 |
2 基于深度学习和强化学习的对话生成算法理论背景 | 第13-24页 |
2.1 深度学习 | 第13-18页 |
2.1.1 神经网络简介 | 第13-14页 |
2.1.2 LSTM和GRU网络 | 第14-18页 |
2.2 强化学习 | 第18-21页 |
2.3 语言模型和词向量简介 | 第21-23页 |
2.3.1 统计语言模型 | 第21-22页 |
2.3.2 神经语言模型 | 第22页 |
2.3.3 词向量简介 | 第22-23页 |
2.4 本章小结 | 第23-24页 |
3 基于BPE单词分割的对话生成算法 | 第24-35页 |
引言 | 第24页 |
3.1 基于BPE降低词表大小 | 第24-25页 |
3.2 基于Beam Search算法生成候选语句 | 第25页 |
3.3 基于注意力机制提升对话效果 | 第25-27页 |
3.4 实验设计与分析 | 第27-34页 |
3.4.1 数据和实验环境 | 第27-28页 |
3.4.2 语料库处理 | 第28页 |
3.4.3 词向量预训练 | 第28-30页 |
3.4.4 基于注意力机制的对话模型性能分析 | 第30-34页 |
3.4.5 实验总结与分析 | 第34页 |
3.5 本章小结 | 第34-35页 |
4 基于对抗强化学习的对话生成算法 | 第35-49页 |
引言 | 第35页 |
4.1 改进基于GAN网络的对话生成算法 | 第35-36页 |
4.2 策略网络构建与梯度计算 | 第36-37页 |
4.3 基于REINFORCE算法的策略网络更新 | 第37-38页 |
4.4 基于对抗强化学习的对话生成模型设计 | 第38-42页 |
4.4.1 生成器模型设计 | 第38页 |
4.4.2 判别器模型设计 | 第38-39页 |
4.4.3 更新生成器网络参数 | 第39-41页 |
4.4.4 基于监督式的生成器模型改进 | 第41-42页 |
4.5 实验设计与分析 | 第42-48页 |
4.5.1 训练句向量 | 第42-44页 |
4.5.2 对抗强化学习模型对话性能分析 | 第44-47页 |
4.5.3 实验总结与分析 | 第47-48页 |
4.6 本章小结 | 第48-49页 |
5 基于改进HRED模型的对话生成算法 | 第49-57页 |
引言 | 第49页 |
5.1 基于最大互信息提升对话多样性 | 第49-51页 |
5.2 基于改进的HRED模型提升对话轮数 | 第51-52页 |
5.3 实验设计与分析 | 第52-56页 |
5.3.1 训练改进的HRED模型 | 第53-56页 |
5.3.2 实验总结与分析 | 第56页 |
5.4 本章小结 | 第56-57页 |
6 总结与展望 | 第57-58页 |
6.1 工作总结 | 第57页 |
6.2 未来展望 | 第57-58页 |
致谢 | 第58-59页 |
参考文献 | 第59-62页 |