摘要 | 第6-8页 |
Abstract | 第8-10页 |
1. 引言 | 第16-35页 |
1.1. 高维不平衡数据分类 | 第17-24页 |
1.1.1. 问题本质 | 第18-21页 |
1.1.2. 现有方法 | 第21-24页 |
1.2. 研究动机 | 第24-31页 |
1.2.1. 集成学习的优势 | 第24-27页 |
1.2.2. 集成学习的现状 | 第27-31页 |
1.2.3. 本文的研究目标 | 第31页 |
1.3. 研究内容 | 第31-32页 |
1.4. 研究创新点 | 第32-33页 |
1.5. 本文组织结构 | 第33-34页 |
1.6. 本章小结 | 第34-35页 |
2. 集成学习 | 第35-54页 |
2.1. 研究发展概述 | 第35-39页 |
2.2. 经典算法族 | 第39-43页 |
2.3. 基于特征的集成学习 | 第43-48页 |
2.3.1. 随机森林 | 第44-47页 |
2.3.2. 集成特征选择 | 第47-48页 |
2.4. 多样性度量 | 第48-53页 |
2.4.1. 成对度量 | 第49-50页 |
2.4.2. 非成对度量 | 第50-53页 |
2.5. 本章小结 | 第53-54页 |
3. 预处理高维不平衡数据实验研究 | 第54-74页 |
3.1. 预处理方法 | 第54-59页 |
3.1.1. 降维方法 | 第54-59页 |
3.1.2. 取样方法 | 第59页 |
3.2. 分类算法评价方法 | 第59-61页 |
3.3. 组合实验 | 第61-69页 |
3.3.1. 相关研究 | 第61-64页 |
3.3.2. 实验数据集说明 | 第64-68页 |
3.3.3. 高维不平衡预处理策略 | 第68-69页 |
3.3.4. 实验方法 | 第69页 |
3.4. 实验分析及结论 | 第69-73页 |
3.5. 本章小结 | 第73-74页 |
4. 基于随机森林的不平衡特征选择算法 | 第74-87页 |
4.1. 不平衡数据特征选择 | 第74-76页 |
4.2. 随机森林变量选择 | 第76-77页 |
4.3. 不平衡随机森林变量选择算法思想 | 第77-81页 |
4.3.1. 特征重要性度量 | 第78-79页 |
4.3.2. 权重计算方法 | 第79-81页 |
4.4. 实验研究 | 第81-86页 |
4.4.1. 随机森林参数影响 | 第82-84页 |
4.4.2. 实验分析与结论 | 第84-86页 |
4.5. 本章小结 | 第86-87页 |
5. 基于随机森林的高维不平衡分类算法 | 第87-98页 |
5.1. 相关研究 | 第87-90页 |
5.1.1 平衡随机森林算法 | 第88页 |
5.1.2 权重随机森林算法 | 第88-89页 |
5.1.3 改进的平衡随机森林算法 | 第89-90页 |
5.2. 代价敏感方法 | 第90-92页 |
5.2.1 常用代价 | 第90-91页 |
5.2.2 集成学习中的代价 | 第91-92页 |
5.3. 代价敏感随机森林算法 | 第92-95页 |
5.3.1 代价引入 | 第93-95页 |
5.3.2 算法描述 | 第95页 |
5.4. 实验研究 | 第95-97页 |
5.5. 本章小结 | 第97-98页 |
6. 基于集成特征选择的高维不平衡分类算法 | 第98-107页 |
6.1. 集成特征选择 | 第98-102页 |
6.1.1. 常用目标函数 | 第99-100页 |
6.1.2. 搜索方法 | 第100-102页 |
6.2. 兼顾不平衡性的集成特征选择算法 IEFS | 第102-104页 |
6.2.1. 特征选择评价目标 | 第102-104页 |
6.2.2. 爬山搜索 | 第104页 |
6.3. 实验研究 | 第104-106页 |
6.4. 本章小结 | 第106-107页 |
7. 总结与展望 | 第107-111页 |
7.1. 所做工作及创新点 | 第107-109页 |
7.2. 下一步工作 | 第109-111页 |
参考文献 | 第111-124页 |
攻博期间发表的科研成果目录 | 第124-125页 |
致谢 | 第125-126页 |
附件 | 第126-127页 |