摘要 | 第3-4页 |
Abstract | 第4页 |
第一章 引言 | 第7-12页 |
1.1 研究失衡数据集分类问题的背景及意义 | 第7-8页 |
1.1.1 研究背景 | 第7页 |
1.1.2 研究意义 | 第7-8页 |
1.2 学习失衡数据的难点 | 第8-9页 |
1.3 国内外研究的现状 | 第9-10页 |
1.4 本文主要内容及其工作结构安排 | 第10-12页 |
1.4.1 主要内容 | 第10页 |
1.4.2 本文结构安排 | 第10-12页 |
第二章 失衡数据集分类问题相关知识 | 第12-18页 |
2.1 失衡数据集分类问题阐述 | 第12-13页 |
2.2 解决失衡数据集分类问题方法 | 第13页 |
2.2.1 数据端 | 第13页 |
2.2.2 算法端 | 第13页 |
2.3 关于失衡数据集分类性能评判准则 | 第13-16页 |
2.3.1 传统的分类性能评价指标 | 第14-15页 |
2.3.2 ROC及AUC | 第15-16页 |
2.4 分类基础 | 第16-17页 |
2.4.1 文本表示模型 | 第16-17页 |
2.4.2 文本预处理 | 第17页 |
2.5 本章小结 | 第17-18页 |
第三章 最大间隔的选择机制采样算法 | 第18-31页 |
3.1 数据重采样 | 第18-21页 |
3.1.1 随机上采样方法 | 第18-20页 |
3.1.2 SMOTE算法 | 第20页 |
3.1.3 Borderline-SMOTE | 第20-21页 |
3.1.4 ADASYN | 第21页 |
3.2 间隔与上采样 | 第21-25页 |
3.2.1 样本间隔和假设间隔 | 第22-23页 |
3.2.2 Voronoi图 | 第23-24页 |
3.2.3 利用最大间隔标准与上采样结合 | 第24-25页 |
3.3 MMNS算法 | 第25-28页 |
3.4 扩展的MMNS算法 | 第28-30页 |
3.4.1 最近邻偏置问题 | 第28页 |
3.4.2 EMMNS算法 | 第28-30页 |
3.5 本章小结 | 第30-31页 |
第四章 实验及结果分析 | 第31-36页 |
4.1 数据集 | 第31页 |
4.2 实验设置 | 第31-35页 |
4.2.1 MMNS与SMOTE, ADASYN,Borderline-SMOTE,ROS的实验对比 | 第31-32页 |
4.2.2 实验结果及分析 | 第32-33页 |
4.2.3 EMMNS与MMNS对比试验及其分析 | 第33-35页 |
4.3 本章小结 | 第35-36页 |
第五章 集成学习的失衡数据集分类方法 | 第36-47页 |
5.1 支持向量机 | 第36-40页 |
5.1.1 SVM 基本原理 | 第36-38页 |
5.1.2 一般核函数 | 第38-39页 |
5.1.3 学习方法中的惩罚因子 | 第39-40页 |
5.2 基于 SVM 的集成学习方法 | 第40-41页 |
5.2.1 集成学习方法的基本路线 | 第40页 |
5.2.2 分类器集成方法 | 第40-41页 |
5.3 实验与分析 | 第41-46页 |
5.3.1 数据集来源 | 第41-42页 |
5.3.2 结合最大间隔上采样分类效果分析 | 第42-45页 |
5.3.3 集成学习方法实验与分析 | 第45-46页 |
5.4 本章小结 | 第46-47页 |
第六章 结论 | 第47-48页 |
6.1 本文总结 | 第47页 |
6.2 展望未来研究 | 第47-48页 |
参考文献 | 第48-52页 |
致谢 | 第52页 |