决策树优化算法研究
| 第一章 KDD技术概述 | 第1-20页 |
| ·引言 | 第11-12页 |
| ·知识发现的基本概念及一般步骤 | 第12-14页 |
| ·基本概念 | 第12页 |
| ·KDD过程 | 第12-14页 |
| ·知识发现的核心——数据挖掘 | 第14-18页 |
| ·数据挖掘的任务 | 第14-15页 |
| ·数据挖掘的典型方法及工具 | 第15-17页 |
| ·数据挖掘系统的发展 | 第17-18页 |
| ·KDD面临的挑战 | 第18-19页 |
| ·本文的主要内容及组织 | 第19页 |
| ·小结 | 第19-20页 |
| 第二章 分类问题及相关研究 | 第20-38页 |
| ·引言 | 第20-21页 |
| ·分类研究的常用模型 | 第21-26页 |
| ·决策树分类 | 第21-22页 |
| ·贝叶斯分类 | 第22-24页 |
| ·朴素贝叶斯分类 | 第22-23页 |
| ·贝叶斯信念网络 | 第23-24页 |
| ·神经网络 | 第24-25页 |
| ·基于概念格的分类 | 第25页 |
| ·其它分类 | 第25-26页 |
| ·基于决策树的分类问题研究 | 第26-37页 |
| ·决策树简介 | 第26-27页 |
| ·构造决策树算法 | 第27-31页 |
| ·CLS学习算法 | 第27-28页 |
| ·ID3算法 | 第28-30页 |
| ·C4.5算法 | 第30-31页 |
| ·处理大规模数据集的决策树 | 第31-35页 |
| ·SLIQ算法 | 第32-33页 |
| ·SPRINT算法 | 第33-35页 |
| ·决策树的剪枝 | 第35-37页 |
| ·先剪枝(pre-pruning) | 第35页 |
| ·后剪枝(post-pruning) | 第35-37页 |
| ·小结 | 第37-38页 |
| 第三章 决策树的优化 | 第38-48页 |
| ·引言 | 第38页 |
| ·修改测试属性空间 | 第38-42页 |
| ·数据驱动方法 | 第38-41页 |
| ·利用数学算子构造 | 第38-40页 |
| ·利用逻辑算子构造 | 第40-41页 |
| ·假设驱动构造 | 第41-42页 |
| ·CRITE | 第42页 |
| ·FRINGE | 第42页 |
| ·改进测试属性选择方法 | 第42-43页 |
| ·按分类信息估值分类 | 第42-43页 |
| ·按划分距离估值分类 | 第43页 |
| ·对数据进行限制 | 第43-44页 |
| ·实例选择 | 第43-44页 |
| ·属性选择 | 第44页 |
| ·改变数据结构 | 第44-47页 |
| ·决策图 | 第44-46页 |
| ·规则集 | 第46-47页 |
| ·小结 | 第47-48页 |
| 第四章 基于粗糙集合理论对决策树的优化 | 第48-57页 |
| ·引言 | 第48页 |
| ·粗糙集合的基本理论 | 第48-52页 |
| ·粗糙集合中的基本概念 | 第48-50页 |
| ·基于粗糙集合的知识的约简 | 第50-52页 |
| ·知识的约简与核 | 第50-51页 |
| ·知识的依赖性 | 第51-52页 |
| ·利用粗糙集合知识对决策树的优化 | 第52-56页 |
| ·对测试属性的约简 | 第52-54页 |
| ·实验结果 | 第54-56页 |
| ·小结 | 第56-57页 |
| 第五章 结束语 | 第57-59页 |
| 参考文献 | 第59-63页 |
| 攻读硕士学位期间发表的论文 | 第63页 |