首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文

决策树的结点属性选择和修剪方法研究

研究生学位论文原创性声明第1-4页
作者简介第4-5页
摘要第5-6页
ABSTRACT第6-9页
第一章 绪论第9-13页
 §1.1 机器学习概述第9-10页
 §1.2 机器学习的发展历史第10-11页
 §1.3 机器学习的研究领域第11-12页
 §1.4 课题研究内容及现状第12-13页
第二章 机器学习第13-18页
 §2.1 机器学习的基本结构第13-14页
 §2.2 机器学习的分类第14-16页
     ·机械学习第14页
     ·示教学习第14-15页
     ·类比学习第15页
     ·解释学习第15-16页
     ·演绎学习第16页
     ·归纳学习第16页
 §2.3 学习任务举例及所获知识的表示第16-17页
 §2.4 机器学习性能的评价第17-18页
第三章 归纳学习第18-27页
 §3.1 归纳学习概述第18页
 §3.2 归纳学习任务第18-20页
 §3.3 几种归纳学习算法第20-26页
     ·Find-S:寻找极大特殊假设第20-21页
     ·List-Then-Eliminate:列表后消除算法第21页
     ·Candidate-Then-Eliminate:侯选消除算法第21-24页
     ·SQ:序列覆盖算法第24-26页
 §3.4 本章小结第26-27页
第四章 决策树学习第27-29页
第五章 非叶结点属性的选择第29-38页
 §5.1 熵的解释第29-30页
 §5.2 熵和样例集的纯度第30页
 §5.3 测试属性的选择算法第30-33页
     ·RS(Random Selection)第30-31页
     ·CIG(Category Information Gain)第31页
     ·AIG(Attribute Information Gain)第31页
     ·GR(Gain Ratio)第31-32页
     ·CA(Cost of Attribute)第32页
     ·IA(Importance of Attribute)第32-33页
     ·MID3第33页
 §5.4 传统的CIG算法和新的AIG算法第33-38页
     ·CIG、AIG算法清单第33-35页
     ·CIG、AIG时间复杂度分析第35-36页
     ·CIG、AIG空间复杂度分析第36-37页
     ·小结第37-38页
第六章 决策树的修剪第38-44页
 §6.1 事后修剪第38-40页
     ·错误率降低修剪(Reduced-error pruning)第38页
     ·规则后修剪(Rule post-pruning)第38-39页
     ·最小化错误率修剪法(Minimum error pruning)第39-40页
 §6.2 事前修剪第40-41页
     ·深度限制法(Depth limit)第40页
     ·卡方测试法(chi-square test)第40-41页
     ·合并属性值法(Merge attribute-value)第41页
 §6.3 两种新的事前修剪算法第41-44页
     ·基于结点支持度的事前修剪算法PDTBS第41-42页
     ·基于结点纯度的事前修剪算法PDTBP第42-43页
     ·PDTBS、PDTBP算法的分析第43-44页
第七章 实验与结论第44-47页
 §7.1 实验第44-46页
     ·数据来源与描述第44-45页
     ·实验方案与结果第45-46页
 §7.2 结论第46-47页
致谢第47-48页
参考文献第48页

论文共48页,点击 下载论文
上一篇:湖南省社会主义新农村养老保险制度研究
下一篇:甲醛和甲苯气体传感器的研制