第一章 绪论 | 第1-23页 |
·机器学习 | 第14-16页 |
·经验风险最小化 | 第15页 |
·三类基本的机器学习问题 | 第15-16页 |
·复杂性与推广能力 | 第16页 |
·统计学习理论 | 第16-19页 |
·VC维 | 第16-17页 |
·推广能力的界 | 第17页 |
·结构风险最小化 | 第17-18页 |
·支持向量机 | 第18-19页 |
·分类器的基本概念 | 第19-21页 |
·影响分类器错误率的因素 | 第19-20页 |
·分类方法的评估 | 第20-21页 |
·论文的结构 | 第21-23页 |
第二章 支持向量机分类的算法 | 第23-36页 |
·标准支持向量机分类模型 | 第23-28页 |
·数据完全线性可分 | 第23-25页 |
·最大间隔思想 | 第23-24页 |
·原始问题和对偶问题 | 第24-25页 |
·数据近似线性可分 | 第25-26页 |
·数据非线性可分 | 第26-28页 |
·非线性问题的变换 | 第26-27页 |
·核函数 | 第27-28页 |
·支持向量机分类的标准算法 | 第28页 |
·多分类支持向量机 | 第28-29页 |
·一对多 SVMs | 第28-29页 |
·一对一 SVMs | 第29页 |
·有向无环图 SVMs | 第29页 |
·分解方法 | 第29-32页 |
·选块算法(Chunking) | 第30页 |
·分解算法(Decomposing) | 第30-31页 |
·SMO算法(Sequential Minimal Optimization) | 第31-32页 |
·同心超球面分割的支持向量预抽取方法 | 第32-35页 |
·支持向量 | 第32页 |
·同心超球面分割的思想 | 第32-33页 |
·工作集的选择策略 | 第33-34页 |
·HD-SVC训练算法描述 | 第34页 |
·数值试验 | 第34-35页 |
·本章小结 | 第35-36页 |
第三章 损失函数 | 第36-42页 |
·损失函数模型 | 第36页 |
·支持向量机回归的损失函数 | 第36-37页 |
·支持向量机分类的损失函数 | 第37-39页 |
·一种改进的三角损失函数支持向量机分类器 | 第39-41页 |
·改进的三角损失函数 | 第39页 |
·SVC的原始问题及其对偶问题 | 第39-41页 |
·数值试验 | 第41页 |
·本章小结 | 第41-42页 |
第四章 集成学习 | 第42-50页 |
·分类器集成的实现 | 第42-47页 |
·基分类器的集成 | 第42-43页 |
·基分类器的生成 | 第43-45页 |
·Boosting算法 | 第43-44页 |
·Bagging算法 | 第44-45页 |
·Boosting与 Bagging | 第45页 |
·基分类器的分析 | 第45-47页 |
·SVM的集成学习 | 第47-49页 |
·Boosting与 SVM | 第47页 |
·基于 Boosting的 SVM组合分类器 | 第47-48页 |
·数值试验 | 第48-49页 |
·本章小结 | 第49-50页 |
第五章 贝叶斯框架 | 第50-56页 |
·静态高斯过程 | 第50-51页 |
·高斯过程中的贝叶斯方法 | 第51-52页 |
·先验概率 | 第51页 |
·似然函数 | 第51-52页 |
·后验概率 | 第52页 |
·最大后验概率 | 第52页 |
·SVM分类的贝叶斯框架 | 第52-55页 |
·贝叶斯框架 | 第53-54页 |
·二次规划 | 第54页 |
·超参数推断 | 第54-55页 |
·本章小结 | 第55-56页 |
第六章 结束语 | 第56-57页 |
·工作总结 | 第56页 |
·工作展望 | 第56-57页 |
参考文献 | 第57-61页 |
附录A 一些概念的介绍 | 第61-63页 |
附录B 攻读硕士学位期间完成的论文 | 第63页 |