摘要 | 第3-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-13页 |
1.1 课题的研究背景与意义 | 第9-10页 |
1.2 研究现状 | 第10-12页 |
1.2.1 决策树分类的研究现状 | 第10页 |
1.2.2 代价敏感学习的研究现状 | 第10-11页 |
1.2.3 多目标优化代价敏感分类的研究现状 | 第11-12页 |
1.3 本文的研究内容与结构安排 | 第12-13页 |
第2章 相关理论与技术研究 | 第13-20页 |
2.1 粗糙集理论 | 第13-17页 |
2.1.1 概念和知识 | 第13页 |
2.1.2 上、下近似 | 第13-14页 |
2.1.3 决策信息系统 | 第14-15页 |
2.1.4 决策树传统算法 | 第15-16页 |
2.1.5 信息熵 | 第16-17页 |
2.2 代价敏感学习 | 第17-19页 |
2.2.1 代价的数据模型 | 第17页 |
2.2.2 测试代价 | 第17-18页 |
2.2.3 不纯度度量 | 第18-19页 |
2.3 本章小结 | 第19-20页 |
第3章 基于测试代价和信息增益的多目标优化代价敏感算法 | 第20-29页 |
3.1 决策树算法一般性框架 | 第20-21页 |
3.2 测试代价-误分类代价敏感决策树算法 | 第21-23页 |
3.2.1 完全测试代价属性分裂标准的代价敏感决策树算法(CT-ID3) | 第21-22页 |
3.2.2 测试代价-信息增益属性分裂标准代价敏感决策树算法(TIG-ID3) | 第22-23页 |
3.3 实验设置 | 第23-25页 |
3.3.1 实验数据集 | 第23页 |
3.3.2 算法评价指标 | 第23-25页 |
3.3.3 实验参数设置 | 第25页 |
3.4 算法对比实验 | 第25-28页 |
3.4.1 测试总代价 | 第25-26页 |
3.4.2 误分类总代价 | 第26-27页 |
3.4.3 分类总代价 | 第27页 |
3.4.4 分类路径总长度 | 第27-28页 |
3.4.5 总数深度 | 第28页 |
3.5 本章小结 | 第28-29页 |
第4章 基于新型不纯度度量的代价敏感随机森林算法 | 第29-37页 |
4.1 随机森林算法一般性框架 | 第29-30页 |
4.2 代价敏感学习 | 第30页 |
4.3 新型不纯度度量的代价敏感随机森林算法 | 第30-31页 |
4.4 不纯度度量的对比分析 | 第31-32页 |
4.5 实验设置 | 第32-34页 |
4.5.1 实验数据集 | 第32-33页 |
4.5.2 算法评价指标 | 第33-34页 |
4.6 算法对比实验 | 第34-36页 |
4.6.1 准确性 | 第34-35页 |
4.6.2 AUC面积 | 第35页 |
4.6.3 Kappa系数 | 第35-36页 |
4.7 本章小结 | 第36-37页 |
第5章 总结与展望 | 第37-39页 |
5.1 总结 | 第37-38页 |
5.2 展望 | 第38-39页 |
致谢 | 第39-40页 |
参考文献 | 第40-43页 |
攻读硕士学位期间发表的论文及科研成果 | 第43页 |