支持向量机模型选择研究
| 致谢 | 第1-6页 |
| 中文摘要 | 第6-8页 |
| ABSTRACT | 第8-13页 |
| 第一章 绪论 | 第13-28页 |
| ·引言 | 第13-14页 |
| ·统计机器学习的发展简史 | 第14-15页 |
| ·支持向量机的研究进展 | 第15-24页 |
| ·理论基础及其扩展 | 第16-17页 |
| ·支持向量机的训练 | 第17-18页 |
| ·支持向量机的扩展 | 第18-20页 |
| ·模型选择与核函数的研究 | 第20-23页 |
| ·支持向量机的应用 | 第23-24页 |
| ·存在的问题 | 第24-26页 |
| ·本文的工作与组织结构 | 第26-28页 |
| 第二章 支持向量机基础 | 第28-53页 |
| ·引言 | 第28-29页 |
| ·统计学习理论 | 第29-37页 |
| ·机器学习问题与方法 | 第29-31页 |
| ·学习过程的一致性 | 第31-34页 |
| ·VC维和泛化能力的界 | 第34-35页 |
| ·结构风险最小化 | 第35-37页 |
| ·核函数特征空间 | 第37-44页 |
| ·特征空间中的学习 | 第37-39页 |
| ·核函数及其主要性质 | 第39-42页 |
| ·常用的几种核函数 | 第42-44页 |
| ·支持向量机 | 第44-52页 |
| ·最大间隔分类器 | 第44-48页 |
| ·软间隔分类器 | 第48-51页 |
| ·关于SVM分类的说明 | 第51-52页 |
| ·本章小结 | 第52-53页 |
| 第三章 特征加权支持向量机 | 第53-65页 |
| ·引言 | 第53-54页 |
| ·样本加权SVM模型 | 第54-56页 |
| ·特征加权SVM模型 | 第56-61页 |
| ·特征加权 | 第56-58页 |
| ·特征加权核函数 | 第58-60页 |
| ·特征加权SVM | 第60-61页 |
| ·实验 | 第61-64页 |
| ·数据集及实验设置 | 第61-62页 |
| ·实验结果与分析 | 第62-64页 |
| ·本章小结 | 第64-65页 |
| 第四章 广义Gaussian核函数的参数选择 | 第65-86页 |
| ·引言 | 第65-66页 |
| ·算法的评价标准 | 第66-69页 |
| ·k-折交叉验证误差 | 第66-67页 |
| ·LOO误差及其意义 | 第67-68页 |
| ·LOO误差的估计 | 第68-69页 |
| ·基于RM界SVM参数选择 | 第69-72页 |
| ·基于核极化的广义Gaussian核学习 | 第72-79页 |
| ·广义Gaussian核 | 第72-73页 |
| ·核极化及其意义 | 第73-75页 |
| ·算法与讨论 | 第75-79页 |
| ·实验 | 第79-85页 |
| ·实验一 | 第79-82页 |
| ·实验二 | 第82-85页 |
| ·本章小结 | 第85-86页 |
| 第五章 局部化的核函数评估 | 第86-106页 |
| ·引言 | 第86-87页 |
| ·三种核评估标准 | 第87-92页 |
| ·核排列与核极化 | 第87-89页 |
| ·基于特征空间的核矩阵评估标准 | 第89-92页 |
| ·局部化的核评估标准 | 第92-98页 |
| ·局部结构信息与降维 | 第92-93页 |
| ·核极化的进一步分析 | 第93-95页 |
| ·局部核极化 | 第95-97页 |
| ·讨论 | 第97-98页 |
| ·实验 | 第98-105页 |
| ·数据集及实验设置 | 第98-100页 |
| ·实验结果与分析 | 第100-105页 |
| ·本章小结 | 第105-106页 |
| 第六章 总结与展望 | 第106-109页 |
| ·本文总结 | 第106-107页 |
| ·研究展望 | 第107-109页 |
| 参考文献 | 第109-120页 |
| 攻读博士学位期间发表或已录用的学术论文 | 第120-122页 |
| 学位论文数据集 | 第122页 |