| 摘要 | 第1-4页 |
| Abstract | 第4-7页 |
| 第一章 绪论 | 第7-19页 |
| ·机器学习的研究背景及意义 | 第7-10页 |
| ·机器学习的任务 | 第10-11页 |
| ·传统机器学习理论的困难 | 第11-14页 |
| ·经验风险最小化与小样本问题 | 第11-12页 |
| ·局部极小值 | 第12-13页 |
| ·算法复杂性与推广能力 | 第13-14页 |
| ·统计学习理论的提出与发展 | 第14-15页 |
| ·支持向量机及其研究进展 | 第15-16页 |
| ·支持向量机的产生 | 第15页 |
| ·支持向量机的研究进展 | 第15-16页 |
| ·论文的主要内容与安排 | 第16-19页 |
| ·论文的主要工作与创新 | 第16-17页 |
| ·论文的组织结构 | 第17-19页 |
| 第二章 统计学习理论与支持向量机 | 第19-33页 |
| ·简介 | 第19-20页 |
| ·统计学习理论的主要内容 | 第20-27页 |
| ·学习过程的一致性及收敛速度 | 第20-22页 |
| ·函数集的VC维 | 第22-24页 |
| ·结构风险最小化归纳原则 | 第24-27页 |
| ·支持向量机理论 | 第27-31页 |
| ·最优分类超平面 | 第27-28页 |
| ·支持向量机 | 第28-30页 |
| ·核函数 | 第30-31页 |
| ·SVM方法的特点 | 第31-32页 |
| ·本章小结 | 第32-33页 |
| 第三章 支持向量机算法研究现状 | 第33-41页 |
| ·块算法与固定工作样本集算法 | 第33-34页 |
| ·块算法 | 第33-34页 |
| ·固定工作样本集算法 | 第34页 |
| ·SMO算法 | 第34-41页 |
| ·SMO法模型 | 第35页 |
| ·SMO算法步骤 | 第35-38页 |
| ·工作集选择 | 第38-41页 |
| 第四章 利用Mercer核函数在Hilbert空间重建支持向量机 | 第41-51页 |
| ·模型建立 | 第41-43页 |
| ·计算求解 | 第43-45页 |
| ·可逆核矩阵 | 第44-45页 |
| ·模型工作集的选取 | 第45-46页 |
| ·有限终止条件 | 第46-47页 |
| ·SMO法求解 | 第47-48页 |
| ·缓存 | 第48页 |
| ·计算试验 | 第48-50页 |
| ·小结 | 第50-51页 |
| 第五章 结束语 | 第51-53页 |
| ·本文的主要工作 | 第51页 |
| ·展望 | 第51-52页 |
| ·结束语 | 第52-53页 |
| 致谢 | 第53-55页 |
| 参考文献 | 第55-58页 |
| 发表论文情况 | 第58-59页 |