摘要 | 第1-9页 |
英文摘要 | 第9-11页 |
第一章 绪论 | 第11-19页 |
1.1 课题背景 | 第11-12页 |
1.2 数据挖掘的任务 | 第12-13页 |
1.3 数据挖掘常用方法 | 第13-15页 |
1.4 支持向量机方法 | 第15-16页 |
1.4.1 支持向量机方法的优点 | 第15页 |
1.4.2 SVM和神经网络方法简单比较 | 第15-16页 |
1.5 论文的主要研究内容 | 第16-19页 |
第二章 支持向量机理论及其实现算法理论概述 | 第19-31页 |
2.1 引言 | 第19页 |
2.2 统计学习理论 | 第19-23页 |
2.2.1 期望风险和经验风险 | 第20页 |
2.2.2 VC维 | 第20-21页 |
2.2.3 结构风险最小化 | 第21-22页 |
2.2.4 SVM的基本原理 | 第22-23页 |
2.3 支持向量机的数学模型 | 第23-26页 |
2.3.1 线性支持向量机 | 第23-25页 |
2.3.2 非线性支持向量机 | 第25页 |
2.3.3 不可分情况的处理 | 第25-26页 |
2.4 SVM的训练算法 | 第26-29页 |
2.4.1 选块算法 | 第26-27页 |
2.4.2 分解算法 | 第27-28页 |
2.4.3 序列最小优化算法 | 第28-29页 |
2.5 本章小结 | 第29-31页 |
第三章 SVM样本预优方法 | 第31-37页 |
3.1 引言 | 第31页 |
3.2 样本预优方法 | 第31-35页 |
3.2.1 特征空间下的距离定义 | 第32-33页 |
3.2.2 中心区域法 | 第33页 |
3.2.3 高维样本预优算法 | 第33-34页 |
3.2.4 预优算法分析 | 第34-35页 |
3.2.5 实验结果及分析 | 第35页 |
3.3 本章小结 | 第35-37页 |
第四章 基于数据几何特征的SVM改进方法 | 第37-45页 |
4.1 引言 | 第37页 |
4.2 MSE方法 | 第37页 |
4.3 CSVM方法 | 第37-39页 |
4.4 非线性支持向量机的几何意义 | 第39-40页 |
4.5 高维中心支持向量机(HCSVM) | 第40-44页 |
4.5.1 邻域算法 | 第40-41页 |
4.5.2 高维中心获取算法 | 第41页 |
4.5.3 HCSVM方程的建立 | 第41-42页 |
4.5.4 HCSVM方法分析 | 第42-43页 |
4.5.5 实验结果及分析 | 第43-44页 |
4.6 结论和进一步研究内容 | 第44-45页 |
第五章 自调整SVM增量方法 | 第45-61页 |
5.1 引言 | 第45页 |
5.2 研究背景和现状 | 第45-49页 |
5.2.1 增量方法研究现状 | 第45-46页 |
5.2.2 支持向量的意义和特点 | 第46-48页 |
5.2.3 一般支持向量机增量学习算法 | 第48-49页 |
5.3 增量算法分析 | 第49-54页 |
5.3.1 增量算法优化问题的选择 | 第49-51页 |
5.3.2 增量过程中的计算性能 | 第51-53页 |
5.3.3 数据分布不同时的策略 | 第53-54页 |
5.4 自调整增量算法 | 第54-59页 |
5.4.1 v-SVM的线性原始优化问题及其对偶问题 | 第54-55页 |
5.4.2 参数v的意义 | 第55页 |
5.4.3 参数v自调整的增量学习策略 | 第55-56页 |
5.4.4 参数v自调整的增量学习方法 | 第56-58页 |
5.4.5 实验结果及分析 | 第58-59页 |
5.5 结论和进一步研究内容 | 第59-61页 |
第六章 结束语 | 第61-63页 |
参考文献 | 第63-69页 |
致谢 | 第69-71页 |
攻读硕士学位期间发表的论文和参加的科研项目 | 第71-72页 |
学位论文评阅及答辩情况表 | 第72页 |