摘要 | 第4-6页 |
Abstract | 第6-8页 |
第1章 绪论 | 第13-23页 |
1.1 研究背景及意义 | 第13-14页 |
1.2 研究现状 | 第14-20页 |
1.2.1 主题模型的起源和发展 | 第14-16页 |
1.2.2 LDA模型的快速吉布斯采样主题推断算法研究现状 | 第16-20页 |
1.3 本文的组织结构和研究内容 | 第20-23页 |
第2章 相关背景和研究基础 | 第23-39页 |
2.1 LDA模型以及Std Gibbs算法和Sparse LDA算法 | 第23-32页 |
2.1.1 LDA模型 | 第23-24页 |
2.1.2 Std Gibbs算法 | 第24-28页 |
2.1.3 Sparse LDA算法 | 第28-32页 |
2.2 BTM模型和Std BTM算法 | 第32-38页 |
2.2.1 BTM模型 | 第33-35页 |
2.2.2 Std BTM算法 | 第35-38页 |
2.3 本章小结 | 第38-39页 |
第3章 适用于长文本主题推断的快速吉布斯采样算法(ESparse LDA) | 第39-63页 |
3.1 引言 | 第39-41页 |
3.2 问题提出 | 第41页 |
3.3 解决思路 | 第41-43页 |
3.4 提出方法 | 第43-50页 |
3.4.1 算法框架 | 第43-48页 |
3.4.2 时间复杂度分析 | 第48-49页 |
3.4.3 算法特点说明 | 第49-50页 |
3.5 实验结果与分析 | 第50-61页 |
3.5.1 数据集和评价标准 | 第50-53页 |
3.5.2 参数设置和实现细节 | 第53-54页 |
3.5.3 实验设计、结果和分析 | 第54-61页 |
3.6 本章小结 | 第61-63页 |
第4章 适用于短文本主题推断的快速吉布斯采样算法(Sparse BTM) | 第63-89页 |
4.1 引言 | 第63-64页 |
4.2 算法思路 | 第64-70页 |
4.2.1 总体主题概率的拆解 | 第66-67页 |
4.2.2 采用缓存策略计算S项 | 第67页 |
4.2.3 采用稀疏策略计算I项、J项和Q项 | 第67-70页 |
4.3 算法框架 | 第70-78页 |
4.3.1 Sparse BTM算法的计算过程 | 第70-72页 |
4.3.2 Sparse BTM算法的数据结构 | 第72-74页 |
4.3.3 Sparse BTM算法的搜索过程 | 第74-75页 |
4.3.4 Sparse BTM算法的时间复杂度分析 | 第75-76页 |
4.3.5 Sparse BTM算法的空间开销分析 | 第76-77页 |
4.3.6 Sparse BTM算法精确性的证明 | 第77-78页 |
4.4 实验结果与分析 | 第78-86页 |
4.4.1 数据集 | 第79-80页 |
4.4.2 参数设置和实验平台 | 第80页 |
4.4.3 实验设计、结果和分析 | 第80-86页 |
4.5 本章小结 | 第86-89页 |
第5章 基于重排双词的适用于短文本主题推断的快速吉布斯采样算法(ESparse BTM) | 第89-99页 |
5.1 引言 | 第89-90页 |
5.2 问题提出 | 第90页 |
5.3 解决思路 | 第90-91页 |
5.3.1 重排双词词项的想法 | 第90-91页 |
5.3.2 缓存策略的想法 | 第91页 |
5.4 提出方法 | 第91-94页 |
5.4.1 ESparse BTM算法的框架流程 | 第91-92页 |
5.4.2 ESparse BTM算法的时间复杂度分析 | 第92-93页 |
5.4.3 ESparse BTM算法精确性的证明 | 第93-94页 |
5.5 实验结果与分析 | 第94-98页 |
5.6 本章小结 | 第98-99页 |
第6章 总结和展望 | 第99-103页 |
6.1 总结 | 第99-101页 |
6.2 展望 | 第101-103页 |
参考文献 | 第103-111页 |
作者简介及在学期间所取得的科研成果 | 第111-114页 |
致谢 | 第114页 |