摘要 | 第1-4页 |
ABSTRACT | 第4-7页 |
1 绪论 | 第7-16页 |
·理论背景 | 第7-10页 |
·机器学习的基本问题 | 第8-9页 |
·复杂性及推广能力 | 第9-10页 |
·统计学习理论 | 第10-13页 |
·学习一致性的条件 | 第10页 |
·推广性的界和VC 维 | 第10-12页 |
·结构风险最小化 | 第12-13页 |
·支持向量机 | 第13-15页 |
·支持向量机的发展历史 | 第13-14页 |
·广义最优超平面 | 第14页 |
·支持向量机的训练 | 第14-15页 |
·本文内容与结构安排 | 第15-16页 |
2 支持向量机理论及其主要研究内容 | 第16-28页 |
·支持向量机基础 | 第16-19页 |
·凸约束最优化问题 | 第16页 |
·KKT 条件 | 第16-17页 |
·对偶问题 | 第17-18页 |
·核技巧 | 第18-19页 |
·支持向量机分类机 | 第19-25页 |
·分类问题的描述 | 第19-20页 |
·线性支持向量分类机 | 第20-21页 |
·近似线性支持向量分类机 | 第21-22页 |
·非线性支持向量分类机 | 第22-25页 |
·支持向量机的优点 | 第25页 |
·支持向量机的主要研究内容 | 第25-27页 |
·各种算法研究 | 第25-26页 |
·模型选择 | 第26页 |
·多类别分类问题 | 第26-27页 |
·大规模数据训练算法研究 | 第27页 |
·小结 | 第27-28页 |
3 支持向量机算法研究 | 第28-37页 |
·支持向量机训练算法综述 | 第28-31页 |
·块算法 | 第29页 |
·分解算法 | 第29-30页 |
·增量算法 | 第30-31页 |
·序贯最小优化算法 | 第31-36页 |
·两个Lagrange 乘子的优化问题 | 第31-33页 |
·选择待优化Lagrange 乘子的试探找点法 | 第33-34页 |
·最小化后的重置工作 | 第34-35页 |
·SMO 算法步骤 | 第35页 |
·SMO 算法的简要总结 | 第35-36页 |
·SMO 算法的特点和优势 | 第36页 |
·本章小结 | 第36-37页 |
4 支持向量机的分段贪婪训练算法及其改进 | 第37-52页 |
·引言 | 第37页 |
·支持向量机的分段贪婪算法 | 第37-41页 |
·分段贪婪算法 | 第37-38页 |
·支持向量机的再生核Hilbert 空间(RKHS)理论 | 第38-39页 |
·支持向量机的分段贪婪算法 | 第39-41页 |
·SVM 训练样本的约简算法研究 | 第41-45页 |
·样本约简策略的提出 | 第42页 |
·支持向量的几何分布 | 第42-43页 |
·SVM 样本约简算法分析 | 第43-45页 |
·大规模训练集的快速缩简方法 | 第45-48页 |
·样本缩减策略 | 第45-46页 |
·快速算法 | 第46-48页 |
·GS-SVMs 的改进 | 第48-49页 |
·实验结果及分析 | 第49-51页 |
·本章小结 | 第51-52页 |
5 总结 | 第52-53页 |
·全文工作总结 | 第52页 |
·进一步工作展望 | 第52-53页 |
致谢 | 第53-54页 |
参考文献 | 第54-58页 |
附录 | 第58页 |