摘要 | 第5-6页 |
Abstract | 第6页 |
缩略语 | 第9-10页 |
第一章 绪论 | 第10-14页 |
1.1 研究背景与意义 | 第10页 |
1.2 国内外研究现状 | 第10-12页 |
1.3 论文研究内容 | 第12页 |
1.4 论文组织架构 | 第12-14页 |
第二章 政府通告文本分类系统的相关技术 | 第14-32页 |
2.1 数据源 | 第14-15页 |
2.2 文本预处理 | 第15-16页 |
2.2.1 分词 | 第15-16页 |
2.2.2 去停用词 | 第16页 |
2.3 特征工程 | 第16-22页 |
2.3.1 文本模型 | 第16-17页 |
2.3.2 基于BOW的特征抽取 | 第17-19页 |
2.3.3 基于主题模型的特征抽取方法 | 第19-20页 |
2.3.4 基于神经网络的word2vec特征工程 | 第20-22页 |
2.4 文本分类算法 | 第22-29页 |
2.4.1 朴素贝叶斯算法 | 第22-23页 |
2.4.2 K近邻算法 | 第23页 |
2.4.3 逻辑斯谛回归算法 | 第23-24页 |
2.4.4 支持向量机算法 | 第24-27页 |
2.4.5 基于神经网络的TextCNN方法 | 第27-29页 |
2.5 分类器性能评估 | 第29-31页 |
2.6 本章小结 | 第31-32页 |
第三章 政府通告文本分类系统的设计与实现 | 第32-56页 |
3.1 系统需求分析 | 第32-33页 |
3.1.1 功能需求分析 | 第32-33页 |
3.1.2 性能需求分析 | 第33页 |
3.2 系统总体设计 | 第33-35页 |
3.2.1 政策通告文本分类器的模块构成 | 第33-35页 |
3.2.2 政策通告文本分类器的编程实现 | 第35页 |
3.3 数据获取模块 | 第35-39页 |
3.3.1 通过网络爬虫获取政策文本语料库 | 第35-37页 |
3.3.2 语料库数据统计 | 第37-39页 |
3.4 数据预处理模块 | 第39-42页 |
3.4.1 数据清洗 | 第39-40页 |
3.4.2 不平衡学习 | 第40-41页 |
3.4.3 分词去停用词 | 第41-42页 |
3.5 特征工程模块 | 第42-49页 |
3.5.1 基于BOW的统计学方法 | 第43-45页 |
3.5.2 基于LDA主题模型的特征抽取 | 第45-47页 |
3.5.3 基于词向量的文本表示 | 第47-49页 |
3.6 分类算法模块 | 第49-54页 |
3.6.1 NB算法 | 第50页 |
3.6.2 K近邻算法 | 第50-51页 |
3.6.3 LR算法 | 第51-52页 |
3.6.4 SVM算法 | 第52-53页 |
3.6.5 多分类训练 | 第53页 |
3.6.6 基于神经网络的TextCNN算法 | 第53-54页 |
3.7 模型验证 | 第54-55页 |
3.8 本章小结 | 第55-56页 |
第四章 政府通告文本分类系统的实验分析与测试 | 第56-66页 |
4.1 测试环境 | 第56页 |
4.2 传统特征选择方法与MFS方法对比试验 | 第56-57页 |
4.3 LDA主题数目对分类器效果的影响 | 第57-58页 |
4.4 传统分类算法NB、KNN、LR、SVM算法综合对比 | 第58页 |
4.5 深度学习模型在不同语料库上文本分类任务的实验对比 | 第58-60页 |
4.6 文本分类系统性能测试 | 第60-61页 |
4.7 文本分类系统功能测试 | 第61-64页 |
4.8 本章小结 | 第64-66页 |
第五章 总结与展望 | 第66-68页 |
5.1 本文工作总结 | 第66页 |
5.2 未来研究展望 | 第66-68页 |
致谢 | 第68-69页 |
参考文献 | 第69-70页 |