摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第8-14页 |
1.1 研究背景及意义 | 第8-9页 |
1.2 文本分类研究现状 | 第9-10页 |
1.3 SVM 算法研究现状 | 第10-11页 |
1.4 本文工作 | 第11-14页 |
1.4.1 本文的研究内容 | 第11-12页 |
1.4.2 本文的组织结构 | 第12-14页 |
第二章 文本分类技术 | 第14-26页 |
2.1 文本分类概述 | 第14-15页 |
2.1.1 文本分类的定义 | 第14-15页 |
2.1.2 文本分类任务特点 | 第15页 |
2.2 文本预处理 | 第15-17页 |
2.2.1 文本分词 | 第15-17页 |
2.2.2 去除停用词 | 第17页 |
2.3 文本表示模型 | 第17-19页 |
2.3.1 布尔逻辑模型 | 第17页 |
2.3.2 概率模型 | 第17页 |
2.3.3 向量空间模型 | 第17-19页 |
2.4 文本特征选择和加权 | 第19-21页 |
2.4.1 信息增益 | 第19页 |
2.4.2 互信息 | 第19-20页 |
2.4.3 x~2统计 | 第20页 |
2.4.4 期望交叉熵 | 第20页 |
2.4.5 文本证据权 | 第20-21页 |
2.4.6 TFIDF 权重 | 第21页 |
2.5 文本分类算法 | 第21-24页 |
2.5.1 KNN 算法 | 第22页 |
2.5.2 朴素贝叶斯 | 第22-23页 |
2.5.3 决策树算法 | 第23页 |
2.5.4 SVM 算法 | 第23-24页 |
2.6 分类评估方法 | 第24-25页 |
2.7 本章小结 | 第25-26页 |
第三章 基于 FOA 的支持向量机 | 第26-44页 |
3.1 统计学习理论 | 第26-28页 |
3.1.1 经验风险最小化 | 第26-27页 |
3.1.2 VC 维 | 第27页 |
3.1.3 结构风险最小化 | 第27-28页 |
3.2 支持向量机原理 | 第28-35页 |
3.2.1 支持向量机概述 | 第28页 |
3.2.2 最优超平面 | 第28-31页 |
3.2.3 线性可分支持向量机 | 第31-32页 |
3.2.4 线性不可分支持向量机 | 第32-35页 |
3.3 支持向量机训练方法 | 第35-36页 |
3.3.1 Chunking 方法 | 第35页 |
3.3.2 分解方法 | 第35-36页 |
3.3.3 增量学习方法 | 第36页 |
3.4 支持向量机参数选择问题 | 第36-38页 |
3.4.1 模型参数选择 | 第36-37页 |
3.4.2 实验与数据分析 | 第37-38页 |
3.5 基于果蝇优化算法的支持向量机 | 第38-43页 |
3.5.1 果蝇优化算法原理 | 第38-39页 |
3.5.2 基于果蝇优化算法的支持向量机参数选择 | 第39-41页 |
3.5.3 几种优化 SVM 参数算法实验比较 | 第41-43页 |
3.6 本章小结 | 第43-44页 |
第四章 FOASVM 在中文文本分类的应用 | 第44-54页 |
4.1 实验准备工作 | 第44-45页 |
4.1.1 语料库构建 | 第44页 |
4.1.2 实验环境与系统总体流程 | 第44-45页 |
4.2 中文文本分类各个阶段介绍 | 第45-48页 |
4.2.1 中文文本分词 | 第45-46页 |
4.2.2 文本特征词选择和分类结果 | 第46-48页 |
4.3 五种特征词选择方法的实验比较 | 第48-51页 |
4.4 KNN、SVM、PSOSVM、FOASVM 四种分类器实验比较 | 第51-53页 |
4.5 本章小结 | 第53-54页 |
第五章 结论 | 第54-56页 |
5.1 总结 | 第54页 |
5.2 展望 | 第54-56页 |
参考文献 | 第56-60页 |
致谢 | 第60页 |