| 摘要 | 第4-5页 |
| abstract | 第5-6页 |
| 第1章 绪论 | 第10-18页 |
| 1.1 研究背景及意义 | 第10-12页 |
| 1.2 研究现状 | 第12-14页 |
| 1.2.1 基于语义规则的分类方法 | 第12-13页 |
| 1.2.2 基于机器学习的分类方法 | 第13页 |
| 1.2.3 基于深度学习的分类方法 | 第13-14页 |
| 1.3 问题的提出 | 第14-15页 |
| 1.4 本文主要工作 | 第15-16页 |
| 1.5 论文组织结构 | 第16-18页 |
| 第2章 相关文献综述 | 第18-27页 |
| 2.1 文本预处理 | 第18-19页 |
| 2.2 LDA主题模型 | 第19-21页 |
| 2.2.1 相关概率分布 | 第19页 |
| 2.2.2 LDA模型 | 第19-21页 |
| 2.3 TF-IDF算法 | 第21-22页 |
| 2.4 Word2Vec词向量模型 | 第22-23页 |
| 2.5 FastText分类模型 | 第23-26页 |
| 2.5.1 层次softmax | 第23-25页 |
| 2.5.2 FastText模型 | 第25-26页 |
| 2.6 本章小结 | 第26-27页 |
| 第3章 基于可变时间窗口的TIF-LDA主题模型 | 第27-36页 |
| 3.1 问题的描述 | 第27-28页 |
| 3.2 基于可变时间窗口的TIF-LDA主题模型构建 | 第28-35页 |
| 3.2.1 时间影响因子 | 第28-29页 |
| 3.2.2 可变时间窗口的设定 | 第29-31页 |
| 3.2.3 TIF-LDA主题模型 | 第31-33页 |
| 3.2.4 实验分析 | 第33-35页 |
| 3.3 本章小结 | 第35-36页 |
| 第4章 基于TF-IDF和TIF-LDA的TL-FastText分类方法 | 第36-44页 |
| 4.1 问题的定义 | 第36-37页 |
| 4.2 输入词典重构 | 第37-40页 |
| 4.2.1 输入词序列n-gram处理 | 第37-38页 |
| 4.2.2 构建保留词典 | 第38页 |
| 4.2.3 保留词典特征补充 | 第38-40页 |
| 4.3 改进的TL-FastText | 第40-43页 |
| 4.4 本章小结 | 第43-44页 |
| 第5章 实验与分析 | 第44-56页 |
| 5.1 实验环境及实验数据 | 第44-45页 |
| 5.1.1 实验环境 | 第44-45页 |
| 5.1.2 实验数据集 | 第45页 |
| 5.2 实验分析 | 第45-55页 |
| 5.2.1 实验方案 | 第45-47页 |
| 5.2.2 性能评估指标 | 第47页 |
| 5.2.3 实验结果分析 | 第47-55页 |
| 5.3 本章小结 | 第55-56页 |
| 第6章 结论与展望 | 第56-59页 |
| 6.1 结论 | 第56-57页 |
| 6.2 展望 | 第57-59页 |
| 致谢 | 第59-60页 |
| 参考文献 | 第60-63页 |
| 攻读学位期间发表的学术论文及参加科研情况 | 第63-64页 |