基于深度学习的问答系统技术研究
摘要 | 第5-6页 |
Abstract | 第6页 |
第1章 绪论 | 第12-19页 |
1.1 课题背景和研究意义 | 第12-14页 |
1.2 本文工作概述 | 第14-17页 |
1.2.1 面向具体任务的检索式问答系统 | 第14-15页 |
1.2.2 端到端开放领域问答系统 | 第15-17页 |
1.3 本文的组织结构 | 第17-18页 |
1.4 本章小结 | 第18-19页 |
第2章 国内外研究现状 | 第19-31页 |
2.1 面向具体任务的问答系统 | 第19-26页 |
2.1.1 编辑距离 | 第20-21页 |
2.1.2 TF-IDF | 第21-22页 |
2.1.3 支持向量机 | 第22-24页 |
2.1.4 文档向量 | 第24-26页 |
2.2 开放领域问答系统 | 第26-30页 |
2.2.1 基于规则的开放问答系统 | 第27-28页 |
2.2.2 基于知识图谱的问答算法 | 第28-29页 |
2.2.3 端到端问答算法 | 第29-30页 |
2.3 本章小结 | 第30-31页 |
第3章 基于卷积神经网络的问答算法 | 第31-37页 |
3.1 总体结构 | 第31页 |
3.2 词向量输入层 | 第31-33页 |
3.3 卷积神经网络特征层 | 第33-34页 |
3.4 最大池化合并层(Max-Pooling) | 第34页 |
3.5 Softmax多分类输出 | 第34-35页 |
3.6 算法伪代码与模型整体结构 | 第35-36页 |
3.7 本章小结 | 第36-37页 |
第4章 基于BLSTM的端到端问答算法 | 第37-44页 |
4.1 算法总体设计 | 第37页 |
4.2 长短时记忆模型(LSTM) | 第37-40页 |
4.3 双向长短时记忆模型(BLSTM) | 第40-41页 |
4.4 注意力机制 | 第41页 |
4.5 基于BLSTM与注意力机制的答句生成算法 | 第41-43页 |
4.6 本章小结 | 第43-44页 |
第5章 实验设计与结果分析 | 第44-63页 |
5.1 引言 | 第44页 |
5.2 实验数据来源与数据预处理 | 第44-49页 |
5.2.1 数据来源 | 第44-45页 |
5.2.2 数据格式 | 第45-47页 |
5.2.3 数据集分布情况与实验数据分配 | 第47-49页 |
5.3 实验环境 | 第49-50页 |
5.4 评价指标 | 第50-52页 |
5.5 模型对比实验 | 第52-60页 |
5.5.1 检索式模型对比实验 | 第52-58页 |
5.5.2 端到端模型对比实验 | 第58-60页 |
5.6 卷积神经网络问答算法参数调优与进一步扩展 | 第60-61页 |
5.7 本章小结 | 第61-63页 |
第6章 系统实现 | 第63-74页 |
6.1 系统整体架构 | 第63-64页 |
6.2 模型训练微服务设计 | 第64-65页 |
6.3 基于卷积神经网络的检索式问答微服务设计 | 第65-66页 |
6.4 端到端问答微服务设计 | 第66-67页 |
6.5 问答Web微服务 | 第67-68页 |
6.6 微服务整合 | 第68-70页 |
6.7 性能测试与优化 | 第70-73页 |
6.8 本章小结 | 第73-74页 |
第7章 总结和展望 | 第74-76页 |
7.1 总结 | 第74页 |
7.2 未来的研究方向 | 第74-76页 |
参考文献 | 第76-81页 |
攻读硕士学位期间主要的研究成果 | 第81-82页 |
致谢 | 第82-83页 |
作者简介 | 第83页 |