| 摘要 | 第3-5页 |
| Abstract | 第5-6页 |
| 第1章 绪论 | 第9-13页 |
| 1.1 课题的研究背景与意义 | 第9-10页 |
| 1.2 研究现状 | 第10-12页 |
| 1.2.1 决策树分类的研究现状 | 第10页 |
| 1.2.2 代价敏感学习的研究现状 | 第10-11页 |
| 1.2.3 多目标优化代价敏感分类的研究现状 | 第11-12页 |
| 1.3 本文的研究内容与结构安排 | 第12-13页 |
| 第2章 相关理论与技术研究 | 第13-20页 |
| 2.1 粗糙集理论 | 第13-17页 |
| 2.1.1 概念和知识 | 第13页 |
| 2.1.2 上、下近似 | 第13-14页 |
| 2.1.3 决策信息系统 | 第14-15页 |
| 2.1.4 决策树传统算法 | 第15-16页 |
| 2.1.5 信息熵 | 第16-17页 |
| 2.2 代价敏感学习 | 第17-19页 |
| 2.2.1 代价的数据模型 | 第17页 |
| 2.2.2 测试代价 | 第17-18页 |
| 2.2.3 不纯度度量 | 第18-19页 |
| 2.3 本章小结 | 第19-20页 |
| 第3章 基于测试代价和信息增益的多目标优化代价敏感算法 | 第20-29页 |
| 3.1 决策树算法一般性框架 | 第20-21页 |
| 3.2 测试代价-误分类代价敏感决策树算法 | 第21-23页 |
| 3.2.1 完全测试代价属性分裂标准的代价敏感决策树算法(CT-ID3) | 第21-22页 |
| 3.2.2 测试代价-信息增益属性分裂标准代价敏感决策树算法(TIG-ID3) | 第22-23页 |
| 3.3 实验设置 | 第23-25页 |
| 3.3.1 实验数据集 | 第23页 |
| 3.3.2 算法评价指标 | 第23-25页 |
| 3.3.3 实验参数设置 | 第25页 |
| 3.4 算法对比实验 | 第25-28页 |
| 3.4.1 测试总代价 | 第25-26页 |
| 3.4.2 误分类总代价 | 第26-27页 |
| 3.4.3 分类总代价 | 第27页 |
| 3.4.4 分类路径总长度 | 第27-28页 |
| 3.4.5 总数深度 | 第28页 |
| 3.5 本章小结 | 第28-29页 |
| 第4章 基于新型不纯度度量的代价敏感随机森林算法 | 第29-37页 |
| 4.1 随机森林算法一般性框架 | 第29-30页 |
| 4.2 代价敏感学习 | 第30页 |
| 4.3 新型不纯度度量的代价敏感随机森林算法 | 第30-31页 |
| 4.4 不纯度度量的对比分析 | 第31-32页 |
| 4.5 实验设置 | 第32-34页 |
| 4.5.1 实验数据集 | 第32-33页 |
| 4.5.2 算法评价指标 | 第33-34页 |
| 4.6 算法对比实验 | 第34-36页 |
| 4.6.1 准确性 | 第34-35页 |
| 4.6.2 AUC面积 | 第35页 |
| 4.6.3 Kappa系数 | 第35-36页 |
| 4.7 本章小结 | 第36-37页 |
| 第5章 总结与展望 | 第37-39页 |
| 5.1 总结 | 第37-38页 |
| 5.2 展望 | 第38-39页 |
| 致谢 | 第39-40页 |
| 参考文献 | 第40-43页 |
| 攻读硕士学位期间发表的论文及科研成果 | 第43页 |