中文摘要 | 第3-4页 |
英文摘要 | 第4页 |
目录 | 第5-7页 |
引言 | 第7-11页 |
1. 决策树生成算法 | 第11-22页 |
1.1 决策树技术 | 第12-13页 |
1.2 决策树生成算法 | 第13-21页 |
1.2.1 CLS 学习算法 | 第13-14页 |
1.2.2 ID3 学习算法 | 第14-17页 |
1.2.3 C4.5 学习算法 | 第17-19页 |
1.2.4 CART 学习算法 | 第19-20页 |
1.2.5 其它算法 | 第20-21页 |
1.3 决策树生成算法评价 | 第21-22页 |
2. 对基于粗糙集理论的决策树生成方法进行改进 | 第22-45页 |
2.1 粗糙集研究背景 | 第22-26页 |
2.1.1 粗糙集理论的发展 | 第22页 |
2.1.2 粗糙集理论的特点 | 第22-24页 |
2.1.3 粗糙集理论的基本原理 | 第24-26页 |
2.2 基于粗糙集理论的决策树生成方法 | 第26-27页 |
2.3 决策树生成示例 | 第27-33页 |
2.3.1 基于粗糙集理论构造决策树 | 第29-30页 |
2.3.2 基于 ID3 算法构造决策树 | 第30-32页 |
2.3.3 算法对比 | 第32-33页 |
2.4 基于变精度粗糙集理论对决策树生成方法进行改进 | 第33-44页 |
2.4.1 基于 Pawlak 粗糙集理论的决策树生成方法的缺陷 | 第33页 |
2.4.2 变精度粗糙集理论的基本概念 | 第33-34页 |
2.4.3 生成方法的改进 | 第34-37页 |
2.4.4 示例验证 | 第37-44页 |
2.5 结论 | 第44-45页 |
3. 决策树的剪枝 | 第45-60页 |
3.1 控制树的大小 | 第45-50页 |
3.1.1 预剪枝法 | 第45-46页 |
3.1.2 后剪枝法 | 第46-50页 |
3.1.2.1 Reduced-error pruning(REP)剪枝算法 | 第46页 |
3.1.2.2 Minimal cost-complexity pruning(MCCP)剪枝算法 | 第46-47页 |
3.1.2.3 Pessimistic-error pruning(PEP)剪枝算法 | 第47-48页 |
3.1.2.4 Minimum-error pruning(REP)剪枝算法 | 第48-49页 |
3.1.2.5 Critical-value pruning(CVP)剪枝算法 | 第49页 |
3.1.2.6 Error-based pruning(EBP)剪枝算法 | 第49-50页 |
3.2 修改测试属性空间 | 第50-51页 |
3.2.1 数据驱动构造 | 第50页 |
3.2.1.1 利用数据算子构造 | 第50页 |
3.2.1.2 利用逻辑算子构造 | 第50页 |
3.2.2 假设驱动构造 | 第50-51页 |
3.3 改进测试属性的选择 | 第51-52页 |
3.4 对数据进行限制 | 第52-53页 |
3.4.1 实例选择 | 第52-53页 |
3.4.2 属性选择 | 第53页 |
3.5 改变数据结构 | 第53页 |
3.5.1 决策图 | 第53页 |
3.5.2 规则集 | 第53页 |
3.6 基于粗糙集理论的新的决策树剪枝方法 | 第53-58页 |
3.6.1 剪枝方法 | 第54-55页 |
3.6.2 剪枝实例 | 第55-58页 |
3.6.2.1 新方法剪枝示例 | 第56-58页 |
3.6.2.2 基于 PEP 剪枝决策树 | 第58页 |
3.7 结论 | 第58-60页 |
结论 | 第60-61页 |
参考文献 | 第61-64页 |
致谢 | 第64-65页 |
在学期间学术成果情况 | 第65页 |