摘要 | 第4-5页 |
abstract | 第5-6页 |
专用术语注释表 | 第9-10页 |
第一章 绪论 | 第10-14页 |
1.1 研究背景与意义 | 第10页 |
1.2 国内外研究现状与发展趋势 | 第10-12页 |
1.3 本文主要内容 | 第12-13页 |
1.4 本文的章节安排 | 第13-14页 |
第二章 文本分类 | 第14-28页 |
2.1 文本分类的定义 | 第14页 |
2.2 文本分类的流程 | 第14-15页 |
2.3 文本预处理 | 第15-17页 |
2.3.1 文本标记的处理 | 第15-16页 |
2.3.2 分词处理 | 第16-17页 |
2.3.3 去除停用词 | 第17页 |
2.4 文本表示及模型 | 第17-20页 |
2.4.1 文本表示 | 第17-18页 |
2.4.2 文本表示模型 | 第18-20页 |
2.5 特征选择技术 | 第20页 |
2.6 常用分类器 | 第20-24页 |
2.6.1 朴素贝叶斯分类器 | 第20-21页 |
2.6.2 K——最近邻算法 | 第21-22页 |
2.6.3 决策树算法 | 第22-23页 |
2.6.4 神经网络方法 | 第23-24页 |
2.6.5 支持向量机(SVM) | 第24页 |
2.7 分类性能评价指标 | 第24-27页 |
2.7.1 查准率和查全率 | 第24-25页 |
2.7.2 F_β值 | 第25-26页 |
2.7.3 宏平均和微平均 | 第26页 |
2.7.4 BEP(Break-evenpoint) | 第26-27页 |
2.8 本章小结 | 第27-28页 |
第三章 混合特征选择方法 | 第28-37页 |
3.1 特征选择方法概述 | 第28页 |
3.2 常见特征选择方法 | 第28-32页 |
3.2.1 文档频率(DF) | 第28-29页 |
3.2.2 信息增益(IG) | 第29-30页 |
3.2.3 互信息(MI) | 第30-31页 |
3.2.4 卡方统计量(CHI) | 第31-32页 |
3.3 改进的混合特征选择方法 | 第32-35页 |
3.3.1 CHI方法的不足 | 第32-33页 |
3.3.2 词频因子的引入 | 第33页 |
3.3.3 MI方法的不足 | 第33-34页 |
3.3.4 调节因子的提出 | 第34-35页 |
3.3.5 混合CHMI特征选择方法 | 第35页 |
3.4 本章小结 | 第35-37页 |
第四章 基于支持向量机的文本分类器 | 第37-52页 |
4.1 支持向量机理论基础 | 第37-39页 |
4.1.1 VC维理论 | 第37-38页 |
4.1.2 结构风险最小化原则 | 第38-39页 |
4.2 支持向量机 | 第39-44页 |
4.2.1 线性可分支持向量机 | 第39-41页 |
4.2.2 线性支持向量机 | 第41-42页 |
4.2.3 非线性支持向量机 | 第42-44页 |
4.3 支持向量机核函数的改进 | 第44-46页 |
4.3.1 核函数 | 第44-45页 |
4.3.2 常用核函数的缺点 | 第45页 |
4.3.3 混合核函数的提出 | 第45-46页 |
4.4 支持向量机多分类方法的改进 | 第46-50页 |
4.4.1 SVM多分类的处理方法 | 第46-49页 |
4.4.2 文本相似度度量参数的引入 | 第49页 |
4.4.3 基于文本相似度的一对一SVM多分类方法改进 | 第49-50页 |
4.5 本章小结 | 第50-52页 |
第五章 基于SVM的文本分类系统实现与仿真 | 第52-64页 |
5.1 实验平台说明 | 第52-53页 |
5.1.1 硬件与软件情况 | 第52页 |
5.1.2 Python文本处理技术 | 第52-53页 |
5.2 仿真系统的设计和搭建 | 第53-55页 |
5.2.1 数据集 | 第53页 |
5.2.2 文本预处理和特征选择 | 第53-54页 |
5.2.3 分类训练 | 第54-55页 |
5.3 仿真结果分析 | 第55-63页 |
5.3.1 特征选择方法分类结果比较 | 第55-59页 |
5.3.2 混合核函数仿真结果 | 第59-61页 |
5.3.3 SVM组合策略仿真结果分析 | 第61-63页 |
5.4 本章小结 | 第63-64页 |
第六章 总结与展望 | 第64-66页 |
6.1 工作总结 | 第64页 |
6.2 研究展望 | 第64-66页 |
参考文献 | 第66-69页 |
附录1 攻读硕士期间撰写的论文 | 第69-70页 |
致谢 | 第70页 |