基于支持向量数据描述的消歧义多示例学习算法研究
| 摘要 | 第1-7页 |
| ABSTRACT | 第7-12页 |
| 第一章 绪论 | 第12-18页 |
| ·研究背景及意义 | 第12-15页 |
| ·研究背景 | 第12-14页 |
| ·研究意义 | 第14-15页 |
| ·多示例学习的研究现状 | 第15-16页 |
| ·论文的研究内容 | 第16-17页 |
| ·论文的结构 | 第17-18页 |
| 第二章 多示例学习研究 | 第18-26页 |
| ·多示例学习概述 | 第18-23页 |
| ·多示例学习问题 | 第18-19页 |
| ·多示例学习理论 | 第19-20页 |
| ·多示例学习与传统机器学习算法的不同 | 第20-21页 |
| ·多示例学习的应用研究 | 第21-23页 |
| ·多示例学习扩展 | 第23-25页 |
| ·多示例回归问题 | 第23页 |
| ·多部分学习 | 第23-24页 |
| ·广义多示例学习 | 第24页 |
| ·多示例多标记学习 | 第24-25页 |
| ·本章小结 | 第25-26页 |
| 第三章 支持向量数据描述 | 第26-40页 |
| ·统计学习理论 | 第26-29页 |
| ·学习问题的表示 | 第26-27页 |
| ·经验风险最小化 | 第27页 |
| ·统计学习理论的核心内容 | 第27-29页 |
| ·支持向量机 | 第29-34页 |
| ·线性可分支持向量机 | 第29-31页 |
| ·线性不可分支持向量机 | 第31-32页 |
| ·非线性可分支持向量与核函数 | 第32-34页 |
| ·支持向量数据描述 | 第34-38页 |
| ·硬间隔支持向量数据描述 | 第35-36页 |
| ·软间隔支持向量数据描述 | 第36页 |
| ·带负类支持向量数据描述 | 第36-38页 |
| ·SVDD中的参数 | 第38-39页 |
| ·本章小结 | 第39-40页 |
| 第四章 基于支持向量数据描述的多示例学习方法 | 第40-50页 |
| ·基于支持向量机的多示例学习算法 | 第40-42页 |
| ·mi-SVM和MI-SVM算法 | 第40-42页 |
| ·DD-SVM算法 | 第42页 |
| ·消除包的歧义性方法 | 第42-45页 |
| ·消除正包中歧义性方法 | 第43-45页 |
| ·选择负包中具有代表性的示例 | 第45页 |
| ·特征映射 | 第45-46页 |
| ·基于示例的特征映射方法 | 第45-46页 |
| ·基于包的特征映射方法 | 第46页 |
| ·基于SVDD的多示例学习算法 | 第46-49页 |
| ·MIL-NSVDD_I算法 | 第47-49页 |
| ·MIL-NSVDD_B算法 | 第49页 |
| ·本章小结 | 第49-50页 |
| 第五章 实验设计与分析 | 第50-59页 |
| ·实验数据集 | 第50-53页 |
| ·麝香分子数据集 | 第50-51页 |
| ·图像数据集 | 第51-53页 |
| ·MUSK数据集实验 | 第53-55页 |
| ·实验设计 | 第53页 |
| ·实验结果与分析 | 第53-55页 |
| ·图像分类实验 | 第55-58页 |
| ·实验设计 | 第55页 |
| ·实验结果与分析 | 第55-58页 |
| ·本章小结 | 第58-59页 |
| 第六章 总结与展望 | 第59-61页 |
| ·总结 | 第59-60页 |
| ·展望 | 第60-61页 |
| 致谢 | 第61-62页 |
| 参考文献 | 第62-66页 |
| 附录 | 第66-67页 |
| 详细摘要 | 第67-70页 |