摘要 | 第5-6页 |
Abstract | 第6页 |
第1章 绪论 | 第11-17页 |
1.1 课题背景 | 第11-12页 |
1.2 国内外研究现状 | 第12-14页 |
1.2.1 传统方法 | 第13页 |
1.2.2 现代方法 | 第13-14页 |
1.2.3 深度学习在自动问答中的应用 | 第14页 |
1.3 本文的主要工作 | 第14-15页 |
1.4 本文结构 | 第15-17页 |
第2章 相关理论与技术概要 | 第17-25页 |
2.1 分词技术 | 第17-18页 |
2.2 词向量技术 | 第18-20页 |
2.2.1 词向量概念 | 第18-19页 |
2.2.2 word2vec工具 | 第19-20页 |
2.3 神经网络 | 第20-23页 |
2.3.1 长短期记忆网络 | 第20-21页 |
2.3.2 卷积神经网络 | 第21-23页 |
2.4 注意力机制 | 第23-24页 |
2.4.1 注意力机制的概念和发展 | 第23页 |
2.4.2 注意力机制的原理 | 第23-24页 |
2.5 本章小结 | 第24-25页 |
第3章 文本收集与预处理 | 第25-33页 |
3.1 训练文本的收集 | 第25-27页 |
3.2 数据预处理 | 第27-29页 |
3.3 训练词向量模型 | 第29-32页 |
3.4 本章小结 | 第32-33页 |
第4章 算法的设计与实现 | 第33-46页 |
4.1 问题描述 | 第33-35页 |
4.1.1 基于知识库的自动问答 | 第33-34页 |
4.1.2 基于文档的自动问答 | 第34-35页 |
4.2 算法设计 | 第35-45页 |
4.2.1 普通CNN语义模型 | 第36-40页 |
4.2.2 CNN+attention语义模型 | 第40-42页 |
4.2.3 LSTM+CNN+attention模型 | 第42-45页 |
4.3 本章小结 | 第45-46页 |
第5章 实验结果与分析 | 第46-57页 |
5.1 实验准备 | 第46页 |
5.2 实验评价指标 | 第46-47页 |
5.3 实验方法 | 第47-55页 |
5.3.1 平均向量法(AveWordEmbedding | 第47-49页 |
5.3.2 重复词法(WordOverlap) | 第49-50页 |
5.3.3 CNN+attention语义模型 | 第50-53页 |
5.3.4 LSTM+CNN+attention混合语义模型 | 第53-55页 |
5.4 实验结果汇总 | 第55页 |
5.5 本章小结 | 第55-57页 |
第6章 总结与展望 | 第57-59页 |
6.1 总结 | 第57页 |
6.2 展望 | 第57-59页 |
参考文献 | 第59-62页 |
攻读硕士学位期间主要的研究成果 | 第62-63页 |
致谢 | 第63页 |