摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 概述 | 第10-13页 |
1.1 研究背景 | 第10-11页 |
1.2 决策树算法研究现状 | 第11页 |
1.3 本文主要研究内容 | 第11-13页 |
第2章 数据挖掘理论 | 第13-22页 |
2.1 数据挖掘的定义 | 第13页 |
2.2 数据挖掘的功能 | 第13-15页 |
2.3 数据挖掘的流程 | 第15-16页 |
2.4 数据挖掘的常用技术 | 第16-20页 |
2.5 数据挖掘的应用 | 第20-22页 |
第3章 分类算法之决策树 | 第22-35页 |
3.1 分类问题 | 第22-23页 |
3.2 决策树 | 第23-25页 |
3.2.1 决策树表示法 | 第23-24页 |
3.2.2 决策树学习的适用问题 | 第24-25页 |
3.3 决策树算法-ID3 | 第25-31页 |
3.3.1 信息论原理在ID3中的应用 | 第26-29页 |
3.3.2 ID3算法构造决策树的过程示例 | 第29-30页 |
3.3.3 ID3算法中的过度拟合 | 第30-31页 |
3.3.4 ID3算法的缺陷 | 第31页 |
3.4 决策树算法-C4.5 | 第31-35页 |
3.4.1 C4.5算法的实现 | 第31-32页 |
3.4.2 C4.5算法对ID3的改进 | 第32-35页 |
第4章 基于C4.5算法剪枝策略的改进 | 第35-42页 |
4.1 C4.5算法的缺陷 | 第35页 |
4.2 对C4.5改进的现状 | 第35-37页 |
4.2.1 关于C4.5连续性属性选择最优阈值的改进 | 第35-36页 |
4.2.2 关于C4.5计算效率的改进 | 第36-37页 |
4.3 基于C4.5算法在处理缺失属性上的改进 | 第37-42页 |
4.3.1 C4.5算法的处理缺失属性的方式 | 第37页 |
4.3.2 改进的处理缺失属性方法 | 第37-42页 |
第5章 改进的算法在训练样例集中的使用 | 第42-53页 |
5.1 在离散型属性的样例集合中的应用 | 第42-49页 |
5.1.1 改进后的算法在vote训练集中的应用 | 第42-47页 |
5.1.2 悲观剪枝策略在vote训练集中的应用 | 第47-48页 |
5.1.3 两种方法在离散型属性的样例上生成的决策树比较 | 第48-49页 |
5.2 在连续型属性的样例集合中的应用 | 第49-53页 |
5.2.1 改进后的算法在Iris训练集中的应用 | 第49-51页 |
5.2.2 悲观剪枝策略在Iris训练集中的应用 | 第51-52页 |
5.2.3 两种方法在连续型属性的样例上生成的决策树比较 | 第52-53页 |
第6章 结论 | 第53-54页 |
6.1 改进算法的优点 | 第53页 |
6.2 改进算法的不足 | 第53-54页 |
参考文献 | 第54-57页 |
在校期间发表的论文和参加的科研项目 | 第57-58页 |
致谢 | 第58页 |