摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第13-23页 |
1.1 研究背景与意义 | 第13-15页 |
1.1.1 技术背景 | 第13-14页 |
1.1.2 应用背景 | 第14-15页 |
1.2 智能对话问答系统研究现状 | 第15-20页 |
1.2.1 对话系统研究现状 | 第15-18页 |
1.2.2 问答系统研究现状 | 第18-20页 |
1.3 本文研究内容和贡献 | 第20-21页 |
1.4 论文组织结构 | 第21-23页 |
第二章 深度学习在自然语言处理领域的相关研究 | 第23-39页 |
2.1 词向量 | 第23-26页 |
2.2 基于神经网络的语言模型 | 第26-28页 |
2.3 循环神经网络 | 第28-34页 |
2.3.1 循环神经网络 | 第28-30页 |
2.3.2 长短期记忆模型 | 第30-34页 |
2.4 注意力机制 | 第34-36页 |
2.4.1 注意力机制概述 | 第34-35页 |
2.4.2 注意力机制相关研究进展 | 第35-36页 |
2.5 语义理解 | 第36-39页 |
第三章 基于seq2seq模型和强化学习的对话机器人研究 | 第39-53页 |
3.1 对话机器人类型 | 第39-40页 |
3.2 seq2seq对话生成模型 | 第40-42页 |
3.3 基于强化学习的seq2seq改进研究 | 第42-46页 |
3.3.1 Seq2seq存在的问题 | 第42-43页 |
3.3.2 强化学习改进Seq2seq对话模型 | 第43-46页 |
3.4 基于深度学习TensorFlow框架搭建聊天对话系统 | 第46-51页 |
3.4.1 Seq2seq对话模型预训练 | 第46-48页 |
3.4.2 强化学习再训练 | 第48-51页 |
3.5 对话系统评测 | 第51-52页 |
3.5.1 人工方法评测 | 第51页 |
3.5.2 对话持久性评测 | 第51-52页 |
3.5.3 实验分析 | 第52页 |
3.6 本章小结 | 第52-53页 |
第四章 基于深度学习语义理解的问答系统研究 | 第53-65页 |
4.1 问答系统分类 | 第53-54页 |
4.2 基于双向GRU的循环神经网络模型的问句语义理解研究 | 第54-59页 |
4.2.1 问答系统框架 | 第54-55页 |
4.2.2 基于双向GRU的循环神经网络模型 | 第55-57页 |
4.2.3 基于双向GRU的循环神经网络问句语义理解模型 | 第57-58页 |
4.2.4 模型训练 | 第58-59页 |
4.3 基于厦门大学及厦门旅游相关领域的问答系统研究 | 第59-64页 |
4.3.1 常问问题集搜集 | 第59-61页 |
4.3.2 语义理解基线系统 | 第61-62页 |
4.3.3 实验设置 | 第62-63页 |
4.3.4 实验结果 | 第63-64页 |
4.3.5 实验结果分析 | 第64页 |
4.4 本章小结 | 第64-65页 |
第五章 基于微信公众号平台的智能对话问答系统开发 | 第65-81页 |
5.1 智能对话问答系统架构设计 | 第65-67页 |
5.2 微信公众号概述 | 第67页 |
5.3 微信公众号开发步骤 | 第67-70页 |
5.4 消息分类 | 第70-79页 |
5.4.1 文本分类相关研究 | 第70-71页 |
5.4.2 基于循环卷积神经网络的文本分类研究 | 第71-75页 |
5.4.3 基线系统 | 第75-76页 |
5.4.4 实验设置 | 第76-77页 |
5.4.5 实验分析 | 第77-79页 |
5.5 本章小结 | 第79-81页 |
第六章 总结与展望 | 第81-85页 |
6.1 本文主要工作及创新点 | 第81-82页 |
6.2 未来工作 | 第82-85页 |
参考文献 | 第85-91页 |
致谢 | 第91页 |