摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-21页 |
1.1 课题研究背景和意义 | 第11-12页 |
1.1.1 课题研究背景 | 第11-12页 |
1.1.2 课题研究意义 | 第12页 |
1.2 对话系统概述 | 第12-16页 |
1.2.1 对话系统类型 | 第12-13页 |
1.2.2 对话系统模块框架 | 第13-14页 |
1.2.3 模块功能与研究内容 | 第14-16页 |
1.3 研究现状 | 第16-20页 |
1.3.1 对话系统现状 | 第16-17页 |
1.3.2 深度学习现状 | 第17-19页 |
1.3.3 现状分析 | 第19-20页 |
1.4 论文组织结构 | 第20-21页 |
第2章 对话系统相关理论方法概述 | 第21-45页 |
2.1 语言理解 | 第21-32页 |
2.1.1 表示学习 | 第21-28页 |
2.1.2 文本分类 | 第28-32页 |
2.2 对话生成 | 第32-43页 |
2.2.1 基于人工模板 | 第32-33页 |
2.2.2 基于知识库检索 | 第33-34页 |
2.2.3 基于深度学习 | 第34-43页 |
2.3 本章小结 | 第43-45页 |
第3章 基于深度学习的短文本领域分类 | 第45-59页 |
3.1 问题描述 | 第45页 |
3.2 模型设计 | 第45-51页 |
3.2.1 基于文档分布式表示的BOW改进方法 | 第45-48页 |
3.2.2 基于fastText的改进模型 | 第48-49页 |
3.2.3 双向长短时记忆循环神经网络模型 | 第49-51页 |
3.3 实验 | 第51-58页 |
3.3.1 数据集描述 | 第51-52页 |
3.3.2 实验对比方法和设置 | 第52页 |
3.3.3 实验结果及分析 | 第52-58页 |
3.4 本章小结 | 第58-59页 |
第4章 基于序列到序列的自然语言生成 | 第59-65页 |
4.1 问题描述 | 第59页 |
4.2 模型设计 | 第59-61页 |
4.2.1 注意力机制(Attention Mechanism) | 第59-60页 |
4.2.2 生成式语言模型 | 第60-61页 |
4.3 实验 | 第61-63页 |
4.3.1 数据集描述 | 第61页 |
4.3.2 实验对比方法和设置 | 第61页 |
4.3.3 评价方法 | 第61-62页 |
4.3.4 实验结果及分析 | 第62-63页 |
4.4 本章小结 | 第63-65页 |
第5章 对话平台的设计与实现 | 第65-79页 |
5.1 平台系统设计 | 第65-67页 |
5.2 平台API设计 | 第67-68页 |
5.2.1 Appkey | 第67页 |
5.2.2 服务器测试接口: | 第67页 |
5.2.3 数据管理接口 | 第67-68页 |
5.2.4 用户模型管理接口 | 第68页 |
5.2.5 自然语言理解接口 | 第68页 |
5.3 核心智能对话系统 | 第68-74页 |
5.3.1 词条定义 | 第68-69页 |
5.3.2 系统结构 | 第69-71页 |
5.3.3 数据视图 | 第71-74页 |
5.3.4 逻辑视图 | 第74页 |
5.4 测试 | 第74-77页 |
5.4.1 任务成功率测试 | 第74-75页 |
5.4.2 对话日志 | 第75-77页 |
5.4.3 任务失败原因及解决办法 | 第77页 |
5.5 本章小结 | 第77-79页 |
结论 | 第79-81页 |
参考文献 | 第81-85页 |
攻读硕士学位期间发表的学术论文 | 第85-87页 |
致谢 | 第87页 |