摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-18页 |
1.1 研究背景和意义 | 第10-12页 |
1.2 国内外研究现状 | 第12-16页 |
1.2.1 深度学习模型 | 第12-14页 |
1.2.2 知识表示模型 | 第14-15页 |
1.2.3 概率主题模型 | 第15-16页 |
1.3 本文主要研究内容 | 第16-17页 |
1.4 本文组织结构 | 第17-18页 |
第2章 基于深度学习的词汇和知识表示 | 第18-24页 |
2.1 词嵌入模型 | 第18-19页 |
2.2 TransE翻译模型 | 第19-20页 |
2.3 联合嵌入表示模型SG TransE | 第20-23页 |
2.3.1 文本和知识库联合表示 | 第20-21页 |
2.3.2 SG TransE模型构建 | 第21-22页 |
2.3.3 SG TransE的训练与求解 | 第22-23页 |
2.4 本章小结 | 第23-24页 |
第3章 基于深度语义强化的概率主题建模 | 第24-35页 |
3.1 文档语义编码 | 第24-28页 |
3.1.1 文档级别语义 | 第24页 |
3.1.2 长短时记忆网络LSTM | 第24-26页 |
3.1.3 双向LSTM文本语义编码 | 第26-28页 |
3.2 DGPU-LDA模型 | 第28-31页 |
3.2.1 LDA主题模型 | 第28-29页 |
3.2.2 基于GPU的语义强化 | 第29-30页 |
3.2.3 DGPU-LDA模型结构 | 第30-31页 |
3.3 模型参数推断 | 第31-34页 |
3.3.1 坍缩吉布斯采样 | 第31-32页 |
3.3.2 基于LSTM和双GPU的坍缩吉布斯采样 | 第32-34页 |
3.4 本章小结 | 第34-35页 |
第4章 基于深度语义强化的神经网络主题建模 | 第35-43页 |
4.1 主题模型神经网络映射 | 第35-37页 |
4.1.1 概率主题模型与深度神经网络 | 第35页 |
4.1.2 模型映射 | 第35-37页 |
4.2 NS-LDA神经网络主题模型 | 第37-39页 |
4.2.1 模型概述 | 第37-38页 |
4.2.2 NS-LDA分层计算 | 第38-39页 |
4.3 NS-LDA模型训练 | 第39-42页 |
4.3.1 训练标准打分 | 第39-40页 |
4.3.2 权值矩阵预训练 | 第40-41页 |
4.3.3 基于负采样的模型训练 | 第41-42页 |
4.4 本章小结 | 第42-43页 |
第5章 实验结果与分析 | 第43-54页 |
5.1 实验数据及其预处理 | 第43-45页 |
5.1.1 数据集描述 | 第43-44页 |
5.1.2 数据集预处理 | 第44-45页 |
5.2 SG_TransE词嵌入模型评价 | 第45-47页 |
5.2.1 SG_TransE训练准备 | 第45页 |
5.2.2 SG_TransE词嵌入t-SNE展示 | 第45-46页 |
5.2.3 SG_TransE词对相似度评价 | 第46-47页 |
5.3 DGPU-LDA和NS-LDA主题模型评价 | 第47-53页 |
5.3.1 模型评价实验设置 | 第47-48页 |
5.3.2 主题语义连贯性评价 | 第48-51页 |
5.3.3 文本分类效果评价 | 第51-53页 |
5.4 本章小结 | 第53-54页 |
第6章 总结与展望 | 第54-56页 |
6.1 总结 | 第54-55页 |
6.2 展望 | 第55-56页 |
参考文献 | 第56-61页 |
硕士期间发表的论文和参与的项目 | 第61-62页 |
致谢 | 第62页 |