摘要 | 第10-12页 |
ABSTRACT | 第12-13页 |
第一章 绪论 | 第15-41页 |
1.1 研究背景与意义 | 第16-21页 |
1.1.1 社交网络概述 | 第16-17页 |
1.1.2 社交网络文本数据特性 | 第17-19页 |
1.1.3 文本分析研究意义 | 第19-20页 |
1.1.4 面临的挑战 | 第20-21页 |
1.2 相关研究 | 第21-35页 |
1.2.1 文本的主题模型 | 第21-25页 |
1.2.2 基于深度学习的文本表示模型 | 第25-30页 |
1.2.3 问答技术 | 第30-32页 |
1.2.4 文本分类算法 | 第32-35页 |
1.3 本文的工作与创新 | 第35-39页 |
1.4 论文结构 | 第39-41页 |
第二章 基于文本主题模型的用户身份关联方法 | 第41-57页 |
2.1 研究背景与意义 | 第41-43页 |
2.2 研究现状 | 第43-44页 |
2.3 方法原理 | 第44-51页 |
2.3.1 问题描述 | 第44-46页 |
2.3.2 用户的核心主题 | 第46-49页 |
2.3.3 动态核心主题匹配方法 | 第49-51页 |
2.4 实验和讨论 | 第51-55页 |
2.4.1 实验一 | 第51-53页 |
2.4.2 实验二 | 第53-55页 |
2.5 本章总节 | 第55-57页 |
第三章 基于深度学习的问题文本分析和摘要方法 | 第57-75页 |
3.1 研究动机 | 第57-59页 |
3.2 研究背景 | 第59-60页 |
3.2.1 深度学习 | 第59-60页 |
3.2.2 文本处理中的深度学习方法 | 第60页 |
3.3 问题定义 | 第60-61页 |
3.4 问题题目和题干的关联分析 | 第61-66页 |
3.4.1 题目和题干的表示方法 | 第61页 |
3.4.2 循环神经网络 | 第61-64页 |
3.4.3 题目题干关联分析模型 | 第64页 |
3.4.4 数据获取和参数调整方法 | 第64-66页 |
3.5 新的问题表示方法 | 第66-68页 |
3.5.1 Word2Vec | 第67-68页 |
3.5.2 题干核心内容抽取方法 | 第68页 |
3.6 实验验证 | 第68-72页 |
3.6.1 实验一 | 第69-71页 |
3.6.2 实验二 | 第71-72页 |
3.7 本章总结 | 第72-75页 |
第四章 基于注意力编码解码模型的问答检索方法 | 第75-93页 |
4.1 研究背景与意义 | 第75-77页 |
4.2 研究现状 | 第77-78页 |
4.3 方法 | 第78-81页 |
4.3.1 问题定义 | 第78-79页 |
4.3.2 双向循环神经网络 | 第79-81页 |
4.3.3 双向LSTM | 第81页 |
4.4 编码解码模型 | 第81-87页 |
4.4.1 卷积滤波器 | 第84页 |
4.4.2 注意机制 | 第84-86页 |
4.4.3 训练过程 | 第86-87页 |
4.5 实验 | 第87-92页 |
4.5.1 实验一 | 第87-89页 |
4.5.2 实验二 | 第89页 |
4.5.3 实验背景 | 第89-90页 |
4.5.4 问答系统架构 | 第90-91页 |
4.5.5 实验结果与分析 | 第91-92页 |
4.6 本章总结 | 第92-93页 |
第五章 面向文本分类的循环神经网络动态dropout算法 | 第93-107页 |
5.1 研究动机 | 第93-94页 |
5.2 相关研究 | 第94-95页 |
5.3 方法原理 | 第95-103页 |
5.3.1 Dropout原理 | 第95-97页 |
5.3.2 Dropout在RNN中可以应用的位置 | 第97页 |
5.3.3 RNN中Dropout的记忆损失问题 | 第97-98页 |
5.3.4 循环神经网络Dropout | 第98-100页 |
5.3.5 动态Dropout方法 | 第100-103页 |
5.4 实验 | 第103-104页 |
5.4.1 实验数据 | 第103页 |
5.4.2 实验设置 | 第103页 |
5.4.3 实验结果和讨论 | 第103-104页 |
5.5 本章总结 | 第104-107页 |
第六章 总结与展望 | 第107-111页 |
6.1 本文工作总结 | 第107-109页 |
6.2 未来工作和展望 | 第109-111页 |
致谢 | 第111-113页 |
参考文献 | 第113-129页 |
作者在学期间取得的学术成果 | 第129-131页 |