摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-12页 |
1.1 .研究背景及意义 | 第8-9页 |
1.2 .国内外研究现状 | 第9-10页 |
1.3 .研究目标与研究方法 | 第10页 |
1.4 .创新点 | 第10页 |
1.5 .本文组织结构 | 第10-11页 |
1.6 .本章小结 | 第11-12页 |
第2章 相关理论与技术 | 第12-21页 |
2.1 .深度学习相关技术 | 第12-13页 |
2.1.1 .深度神经网络 | 第12-13页 |
2.1.2 .Tensorflow | 第13页 |
2.2 .面向具体任务的问答系统 | 第13-18页 |
2.2.1 .词频-逆向文件频率 | 第13-14页 |
2.2.2 .编辑距离 | 第14-15页 |
2.2.3 .K最近邻算法 | 第15页 |
2.2.4 .支持向量机(SupportVectorMachine,SVM) | 第15-17页 |
2.2.5 .句子向量 | 第17-18页 |
2.3 .面向开放领域的问答系统 | 第18-20页 |
2.3.1 .基于自由文本的问答系统 | 第18-19页 |
2.3.2 .基于知识图谱的问答系统 | 第19-20页 |
2.3.3 .基于深度学习的端到端的问答系统 | 第20页 |
2.4 .本章小结 | 第20-21页 |
第3章 基于卷积神经网络的问答系统模型 | 第21-29页 |
3.1 .词嵌入层 | 第21-23页 |
3.2 .长短时记忆神经网络层 | 第23-26页 |
3.3 .卷积神经网络层 | 第26-27页 |
3.4 .池化层 | 第27-28页 |
3.5 .LSTM-CNN混合神经网络模型 | 第28页 |
3.6 .本章小结 | 第28-29页 |
第4章 基于门限循环单元的问答系统模型 | 第29-33页 |
4.1 .GRU层 | 第29-30页 |
4.2 .双向门限循环单元 | 第30页 |
4.3 .注意力机制 | 第30-31页 |
4.4 .基于BiGRU-Attention的神经网络模型 | 第31页 |
4.5 .本章小结 | 第31-33页 |
第5章 实验过程与结果分析 | 第33-44页 |
5.1 .实验环境 | 第33-34页 |
5.2 .数据来源与获取 | 第34-36页 |
5.3 .数据预处理 | 第36页 |
5.4 .数据集分配 | 第36-37页 |
5.5 .实验设置 | 第37-38页 |
5.5.1 .目标函数 | 第37页 |
5.5.2 .评价指标 | 第37-38页 |
5.6 .模型对比实验 | 第38-43页 |
5.6.1 .基于Lucene的搜索引擎 | 第38页 |
5.6.2 .TF-IDF | 第38页 |
5.6.3 .句子向量 | 第38-39页 |
5.6.4 .基于卷积神经网络的混合网络模型 | 第39-40页 |
5.6.5 .基于门限循环单元和注意力机制的神经网络模型 | 第40页 |
5.6.6 .实验对比与结果分析 | 第40-43页 |
5.7 .本章小结 | 第43-44页 |
第6章 总结与展望 | 第44-45页 |
6.1 .总结 | 第44页 |
6.2 .未来与展望 | 第44-45页 |
参考文献 | 第45-48页 |
在学期间公开发表论文及著作情况 | 第48-49页 |
致谢 | 第49页 |