摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第12-24页 |
1.1 课题研究的背景和意义 | 第12-14页 |
1.2 多示例学习的概念和特点 | 第14-16页 |
1.3 多示例学习的研究现状 | 第16-20页 |
1.3.1 Hausdorff距离的研究现状 | 第18-19页 |
1.3.2 特征选择的研究现状 | 第19-20页 |
1.4 论文的主要内容和结构安排 | 第20-24页 |
第二章 特征加权和基于混合距离集成分类器的理论基础 | 第24-38页 |
2.1 Hausdorff距离的原理 | 第24-27页 |
2.1.1 最小和最大Hausdorff距离原理 | 第24-26页 |
2.1.2 平均和自适应Hausdorff距离原理 | 第26-27页 |
2.2 特征选择的过程和分类 | 第27-30页 |
2.2.1 特征选择的过程 | 第27-29页 |
2.2.2 特征选择的分类 | 第29-30页 |
2.3 Citation-KNN分类器 | 第30-33页 |
2.3.1 Citation-KNN算法介绍 | 第30-31页 |
2.3.2 Citation-KNN分类器原理 | 第31-33页 |
2.4 集成学习 | 第33-36页 |
2.4.1 集成学习的基本理论 | 第33-36页 |
2.4.2 集成算法Boosting的运算机制 | 第36页 |
2.5 本章总结 | 第36-38页 |
第三章 基于特征加权的Simba算法的改进 | 第38-54页 |
3.1 经典Simba算法 | 第38-42页 |
3.1.1 Simba算法中“间隔”的介绍 | 第38-39页 |
3.1.2 经典Simba算法的运算机制 | 第39-42页 |
3.2 改进的Simba算法流程 | 第42-43页 |
3.3 改进的Simba算法性能测试及结果分析 | 第43-52页 |
3.3.1 测试所用数据集 | 第43-44页 |
3.3.2 测试过程及结果分析 | 第44-52页 |
3.4 本章总结 | 第52-54页 |
第四章 基于混合Hausdorff距离的集成分类器 | 第54-68页 |
4.1 用于集成的Ada Boost算法 | 第54-58页 |
4.1.1 Ada Boost算法对数据集和分类器的处理 | 第54-55页 |
4.1.2 Ada Boost算法的运算机制 | 第55-58页 |
4.2 基于混合Hausdorff距离的集成分类器 | 第58-61页 |
4.2.1 混合Hausdorff距离的概念 | 第58-59页 |
4.2.2 集成分类器的生成 | 第59-61页 |
4.3 集成分类器性能测试及结果分析 | 第61-66页 |
4.4 本章总结 | 第66-68页 |
第五章 总结与展望 | 第68-70页 |
5.1 论文总结 | 第68-69页 |
5.2 研究展望 | 第69-70页 |
参考文献 | 第70-76页 |
致谢 | 第76-78页 |
攻读硕士学位期间发表的学术论文目录 | 第78页 |