| 第一章 绪论 | 第1-23页 |
| ·机器学习 | 第14-16页 |
| ·经验风险最小化 | 第15页 |
| ·三类基本的机器学习问题 | 第15-16页 |
| ·复杂性与推广能力 | 第16页 |
| ·统计学习理论 | 第16-19页 |
| ·VC维 | 第16-17页 |
| ·推广能力的界 | 第17页 |
| ·结构风险最小化 | 第17-18页 |
| ·支持向量机 | 第18-19页 |
| ·分类器的基本概念 | 第19-21页 |
| ·影响分类器错误率的因素 | 第19-20页 |
| ·分类方法的评估 | 第20-21页 |
| ·论文的结构 | 第21-23页 |
| 第二章 支持向量机分类的算法 | 第23-36页 |
| ·标准支持向量机分类模型 | 第23-28页 |
| ·数据完全线性可分 | 第23-25页 |
| ·最大间隔思想 | 第23-24页 |
| ·原始问题和对偶问题 | 第24-25页 |
| ·数据近似线性可分 | 第25-26页 |
| ·数据非线性可分 | 第26-28页 |
| ·非线性问题的变换 | 第26-27页 |
| ·核函数 | 第27-28页 |
| ·支持向量机分类的标准算法 | 第28页 |
| ·多分类支持向量机 | 第28-29页 |
| ·一对多 SVMs | 第28-29页 |
| ·一对一 SVMs | 第29页 |
| ·有向无环图 SVMs | 第29页 |
| ·分解方法 | 第29-32页 |
| ·选块算法(Chunking) | 第30页 |
| ·分解算法(Decomposing) | 第30-31页 |
| ·SMO算法(Sequential Minimal Optimization) | 第31-32页 |
| ·同心超球面分割的支持向量预抽取方法 | 第32-35页 |
| ·支持向量 | 第32页 |
| ·同心超球面分割的思想 | 第32-33页 |
| ·工作集的选择策略 | 第33-34页 |
| ·HD-SVC训练算法描述 | 第34页 |
| ·数值试验 | 第34-35页 |
| ·本章小结 | 第35-36页 |
| 第三章 损失函数 | 第36-42页 |
| ·损失函数模型 | 第36页 |
| ·支持向量机回归的损失函数 | 第36-37页 |
| ·支持向量机分类的损失函数 | 第37-39页 |
| ·一种改进的三角损失函数支持向量机分类器 | 第39-41页 |
| ·改进的三角损失函数 | 第39页 |
| ·SVC的原始问题及其对偶问题 | 第39-41页 |
| ·数值试验 | 第41页 |
| ·本章小结 | 第41-42页 |
| 第四章 集成学习 | 第42-50页 |
| ·分类器集成的实现 | 第42-47页 |
| ·基分类器的集成 | 第42-43页 |
| ·基分类器的生成 | 第43-45页 |
| ·Boosting算法 | 第43-44页 |
| ·Bagging算法 | 第44-45页 |
| ·Boosting与 Bagging | 第45页 |
| ·基分类器的分析 | 第45-47页 |
| ·SVM的集成学习 | 第47-49页 |
| ·Boosting与 SVM | 第47页 |
| ·基于 Boosting的 SVM组合分类器 | 第47-48页 |
| ·数值试验 | 第48-49页 |
| ·本章小结 | 第49-50页 |
| 第五章 贝叶斯框架 | 第50-56页 |
| ·静态高斯过程 | 第50-51页 |
| ·高斯过程中的贝叶斯方法 | 第51-52页 |
| ·先验概率 | 第51页 |
| ·似然函数 | 第51-52页 |
| ·后验概率 | 第52页 |
| ·最大后验概率 | 第52页 |
| ·SVM分类的贝叶斯框架 | 第52-55页 |
| ·贝叶斯框架 | 第53-54页 |
| ·二次规划 | 第54页 |
| ·超参数推断 | 第54-55页 |
| ·本章小结 | 第55-56页 |
| 第六章 结束语 | 第56-57页 |
| ·工作总结 | 第56页 |
| ·工作展望 | 第56-57页 |
| 参考文献 | 第57-61页 |
| 附录A 一些概念的介绍 | 第61-63页 |
| 附录B 攻读硕士学位期间完成的论文 | 第63页 |