摘要 | 第1-5页 |
ABSTRACT | 第5-12页 |
第一章 绪论 | 第12-21页 |
·选题的研究背景和意义 | 第12-13页 |
·统计学习理论概述 | 第13-17页 |
·统计学习过程一致性的条件 | 第13-14页 |
·VC 维 | 第14-15页 |
·结构风险最小化 | 第15-17页 |
·研究现状 | 第17-20页 |
·支持向量机与核机器学习简介 | 第17页 |
·支持向量机研究现状 | 第17-19页 |
·存在的问题 | 第19-20页 |
·论文研究内容及各章主要安排 | 第20-21页 |
第二章 支持向量机及其快速训练算法分析 | 第21-38页 |
·支持向量机理论基础 | 第21-31页 |
·线性支持向量机 | 第21-25页 |
·非线性支持向量机 | 第25-30页 |
·SVM 的泛化性能 | 第30-31页 |
·支持向量机快速训练算法的分析 | 第31-36页 |
·Chunking 算法 | 第31-33页 |
·分解算法(Decomposing) | 第33-34页 |
·最小序贯优化算法(SMO) | 第34-36页 |
·分解算法之间的比较 | 第36页 |
·本章小结 | 第36-38页 |
第三章 海量样本下的SVM 样本约简算法研究 | 第38-58页 |
·样本约简思想的提出 | 第38-39页 |
·支持向量的几何分布 | 第39-40页 |
·SVM 样本约简算法的分析 | 第40-47页 |
·全局样本抽取法 | 第40-41页 |
·邻界样本直接提取法 | 第41-43页 |
·邻界样本间接提取法 | 第43-47页 |
·基于K-邻界子聚类区的SVM 样本约简方法 | 第47-50页 |
·C-mean 聚类 | 第48页 |
·K-邻界子聚类区 | 第48-50页 |
·基于K-邻界子聚类区的SVM 样本约简算法(KBSC 算法) | 第50页 |
·实验及结果分析 | 第50-57页 |
·线性可分样本 | 第50-52页 |
·非线性可分样本 | 第52-53页 |
·真实数据集 | 第53-57页 |
·本章小结 | 第57-58页 |
第四章 支持向量机工作集选择策略研究 | 第58-76页 |
·SVMLIGHT算法 | 第58-61页 |
·可行方向法工作集选择策略 | 第59页 |
·收缩(Shrinking) | 第59-61页 |
·缓存(Caching) | 第61页 |
·SMO 算法的工作集选择分析 | 第61-64页 |
·SMO 启发式工作集选择策略 | 第61-62页 |
·缓存机制与改进的SMO 算法 | 第62-64页 |
·LIBSVM | 第64-66页 |
·算法总体方案 | 第65页 |
·问题的统一表示 | 第65页 |
·两类学习机采用不同的偶对选择方式 | 第65-66页 |
·工作集缩减 | 第66页 |
·Cache 方法 | 第66页 |
·参数搜索网格 | 第66页 |
·现有算法的理论分析 | 第66-67页 |
·基于预备工作集的最小序列优化算法 | 第67-71页 |
·理论基础 | 第67-69页 |
·预备工作集(Reserve Working Set,RWS) | 第69-70页 |
·基于预备工作集的SMO 算法(RWS-SMO) | 第70-71页 |
·实验结果与分析 | 第71-75页 |
·预备工作集规模的选择方案 | 第71-73页 |
·结果与分析 | 第73-75页 |
·本章小结 | 第75-76页 |
第五章 总结与展望 | 第76-78页 |
·本文工作总结 | 第76页 |
·进一步工作展望 | 第76-78页 |
参考文献 | 第78-82页 |
致谢 | 第82-83页 |
在学期间的研究成果及发表的学术论文 | 第83页 |