| 摘要 | 第4-6页 |
| ABSTRACT | 第6-7页 |
| 第一章 绪论 | 第12-24页 |
| 1.1 课题研究的背景和意义 | 第12-14页 |
| 1.2 多示例学习的概念和特点 | 第14-16页 |
| 1.3 多示例学习的研究现状 | 第16-20页 |
| 1.3.1 Hausdorff距离的研究现状 | 第18-19页 |
| 1.3.2 特征选择的研究现状 | 第19-20页 |
| 1.4 论文的主要内容和结构安排 | 第20-24页 |
| 第二章 特征加权和基于混合距离集成分类器的理论基础 | 第24-38页 |
| 2.1 Hausdorff距离的原理 | 第24-27页 |
| 2.1.1 最小和最大Hausdorff距离原理 | 第24-26页 |
| 2.1.2 平均和自适应Hausdorff距离原理 | 第26-27页 |
| 2.2 特征选择的过程和分类 | 第27-30页 |
| 2.2.1 特征选择的过程 | 第27-29页 |
| 2.2.2 特征选择的分类 | 第29-30页 |
| 2.3 Citation-KNN分类器 | 第30-33页 |
| 2.3.1 Citation-KNN算法介绍 | 第30-31页 |
| 2.3.2 Citation-KNN分类器原理 | 第31-33页 |
| 2.4 集成学习 | 第33-36页 |
| 2.4.1 集成学习的基本理论 | 第33-36页 |
| 2.4.2 集成算法Boosting的运算机制 | 第36页 |
| 2.5 本章总结 | 第36-38页 |
| 第三章 基于特征加权的Simba算法的改进 | 第38-54页 |
| 3.1 经典Simba算法 | 第38-42页 |
| 3.1.1 Simba算法中“间隔”的介绍 | 第38-39页 |
| 3.1.2 经典Simba算法的运算机制 | 第39-42页 |
| 3.2 改进的Simba算法流程 | 第42-43页 |
| 3.3 改进的Simba算法性能测试及结果分析 | 第43-52页 |
| 3.3.1 测试所用数据集 | 第43-44页 |
| 3.3.2 测试过程及结果分析 | 第44-52页 |
| 3.4 本章总结 | 第52-54页 |
| 第四章 基于混合Hausdorff距离的集成分类器 | 第54-68页 |
| 4.1 用于集成的Ada Boost算法 | 第54-58页 |
| 4.1.1 Ada Boost算法对数据集和分类器的处理 | 第54-55页 |
| 4.1.2 Ada Boost算法的运算机制 | 第55-58页 |
| 4.2 基于混合Hausdorff距离的集成分类器 | 第58-61页 |
| 4.2.1 混合Hausdorff距离的概念 | 第58-59页 |
| 4.2.2 集成分类器的生成 | 第59-61页 |
| 4.3 集成分类器性能测试及结果分析 | 第61-66页 |
| 4.4 本章总结 | 第66-68页 |
| 第五章 总结与展望 | 第68-70页 |
| 5.1 论文总结 | 第68-69页 |
| 5.2 研究展望 | 第69-70页 |
| 参考文献 | 第70-76页 |
| 致谢 | 第76-78页 |
| 攻读硕士学位期间发表的学术论文目录 | 第78页 |