| 摘要 | 第1-7页 |
| ABSTRACT | 第7-14页 |
| 第一章 绪论 | 第14-22页 |
| ·引言 | 第14页 |
| ·竞争学习网络及其向量量化的研究背景及现状 | 第14-16页 |
| ·竞争学习 | 第14-15页 |
| ·学习向量量化 | 第15-16页 |
| ·统计学习理论及其SVM 研究背景及现状 | 第16-20页 |
| ·统计学习理论的发展 | 第16-17页 |
| ·SVM 的算法研究 | 第17-19页 |
| ·SVM 的应用研究 | 第19页 |
| ·SVM 的核函数和模型选择研究 | 第19-20页 |
| ·本文工作及安排 | 第20-22页 |
| 第二章 竞争学习网络及广义学习向量量化 | 第22-36页 |
| ·学习理论及自组织系统 | 第22-25页 |
| ·通用学习方程 | 第22-23页 |
| ·自组织学习 | 第23页 |
| ·竞争学习 | 第23-24页 |
| ·自组织特征映射(Self-Organizing Feature Map, SOFM) | 第24-25页 |
| ·向量量化及广义学习向量量化 | 第25-28页 |
| ·学习向量量化(Learning VQ, LVQ) | 第25-27页 |
| ·广义向量量化 | 第27页 |
| ·模糊学习量化算法 | 第27-28页 |
| ·一个新的竞争网络学习算法 | 第28-32页 |
| ·修正的广义学习向量量化算法 | 第28-29页 |
| ·模糊修正广义学习量化 | 第29-30页 |
| ·实验比较 | 第30-32页 |
| ·一种提高学习向量量化算法性能的新方法 | 第32-35页 |
| ·引言 | 第32-33页 |
| ·提高竞争网络性能的新措施 | 第33-34页 |
| ·实验仿真 | 第34-35页 |
| ·小结与讨论 | 第35-36页 |
| 第三章 支持向量机的基本理论和几何特性研究 | 第36-54页 |
| ·监督学习和统计学习理论 | 第36-39页 |
| ·监督机器学习问题 | 第36-38页 |
| ·统计学习理论 | 第38-39页 |
| ·SVM 的基本理论 | 第39-43页 |
| ·学习过程一致性的条件 | 第39-40页 |
| ·学习过程收敛率的界 | 第40-41页 |
| ·结构风险最小化 | 第41-43页 |
| ·支持向量机模型 | 第43-47页 |
| ·?-间隔分类超平面 | 第43-44页 |
| ·确定最优分类超平面 | 第44-45页 |
| ·推广到线性不可分情形 | 第45页 |
| ·核函数和非线性问题 | 第45-47页 |
| ·常用核函数举例 | 第47页 |
| ·一种推导SVM 的直观方法——FISHER 投影方法 | 第47-52页 |
| ·Fisher 线性判别法 | 第48-49页 |
| ·利用Fisher 投影构造最优分类超平面 | 第49-51页 |
| ·模拟实验 | 第51页 |
| ·小结 | 第51-52页 |
| ·结束语 | 第52-54页 |
| 第四章 标准支持向量机算法研究 | 第54-78页 |
| ·标准支持向量机问题简介 | 第54-56页 |
| ·标准SVM 问题 | 第54-55页 |
| ·经典求解算法 | 第55-56页 |
| ·低维NEWTON 算法 | 第56-61页 |
| ·算法与分析 | 第56-59页 |
| ·数值模拟实验 | 第59-61页 |
| ·结论 | 第61页 |
| ·训练支持向量机的极大熵方法 | 第61-68页 |
| ·SVM 的无约束对偶问题及其熵近似函数的性质 | 第61-63页 |
| ·SVM 的ε-最优解 | 第63-65页 |
| ·算法及分析 | 第65-66页 |
| ·数值模拟实验 | 第66-68页 |
| ·结论 | 第68页 |
| ·训练支持向量机的HUBER 近似算法 | 第68-77页 |
| ·引言 | 第68页 |
| ·二次规划的无约束对偶问题 | 第68-69页 |
| ·对偶问题的Huber 近似及其性质 | 第69-72页 |
| ·算法提出 | 第72-73页 |
| ·算法分析 | 第73-74页 |
| ·数值模拟实验 | 第74-77页 |
| ·结论 | 第77页 |
| ·结束语 | 第77-78页 |
| 第五章 变形支持向量机算法研究(1)——CGSVM | 第78-94页 |
| ·变形SVM 模型 | 第78-82页 |
| ·引言 | 第78-79页 |
| ·二次损失函数支持向量机 | 第79-80页 |
| ·最小二乘支持向量机LS-SVM | 第80-81页 |
| ·Mangasarian 等的变形问题 | 第81页 |
| ·广义支持向量机GSVM | 第81-82页 |
| ·已有变形算法介绍 | 第82-85页 |
| ·连续超松弛算法SOR | 第82-83页 |
| ·光滑支持向量机SSVM | 第83-84页 |
| ·Lagrange 支持向量机LSVM | 第84-85页 |
| ·共轭梯度型支持向量机(CGSVM) | 第85-89页 |
| ·线性变形SVM 的无约束Lagrangian 对偶 | 第85-87页 |
| ·非线性问题无约束Lagrangian 对偶 | 第87页 |
| ·CGSVM 算法 | 第87-88页 |
| ·精确线搜索 | 第88-89页 |
| ·算法实现与实验 | 第89-92页 |
| ·线性分类实验 | 第89-90页 |
| ·非线性分类实验 | 第90-92页 |
| ·复杂度分析 | 第92页 |
| ·结束语 | 第92-94页 |
| 第六章 变形支持向量机算法研究(2)——ESNSVM | 第94-106页 |
| ·SVM 及其变形问题介绍 | 第94-95页 |
| ·引言 | 第94页 |
| ·二次损失函数变形及其Mangasarian 的变形 | 第94-95页 |
| ·半光滑方法 | 第95-98页 |
| ·半光滑(Semi-smooth)方法介绍 | 第95-97页 |
| ·半光滑SVM | 第97-98页 |
| ·精确半光滑SVM | 第98-102页 |
| ·变形SVM 的无约束Lagrange 对偶问题 | 第98-99页 |
| ·算法提出 | 第99-100页 |
| ·算法收敛性 | 第100页 |
| ·广义Jacobian 矩阵B_k的计算和迭代更新 | 第100-101页 |
| ·基于“二分查找”的精确线搜索 | 第101-102页 |
| ·实验仿真 | 第102-105页 |
| ·与算法LSVM 的实验比较 | 第102-104页 |
| ·ESNSVM 与半光滑算法Semismooth-SVM 的比较分析 | 第104-105页 |
| ·结束语 | 第105-106页 |
| 第七章 支持向量机的几何算法研究——新的可行方向算法 | 第106-126页 |
| ·SVM 的几何解释 | 第106-110页 |
| ·SVM 介绍 | 第106-107页 |
| ·C-SVM 的几何解释 | 第107-109页 |
| ·v-SVM 的几何解释 | 第109-110页 |
| ·几何算法介绍 | 第110-113页 |
| ·Keerthi 等的最近点(Nearest Point)算法 | 第110-111页 |
| ·Franc 和Hlavác的S-K 算法 | 第111-113页 |
| ·一个新的可行方向算法 | 第113-123页 |
| ·S-K 算法分析 | 第113-115页 |
| ·新的可行方向算法 | 第115-117页 |
| ·收敛性分析 | 第117-119页 |
| ·停止条件 | 第119-121页 |
| ·推广处理不可分问题 | 第121-123页 |
| ·试验与分析 | 第123-125页 |
| ·结束语 | 第125-126页 |
| 第八章 支持向量机的核函数和模型选择研究 | 第126-138页 |
| ·引言 | 第126-127页 |
| ·一类新的核函数 | 第127-132页 |
| ·高斯核函数的性能分析 | 第127-130页 |
| ·一个新的核函数及其性能分析 | 第130-132页 |
| ·核参数选择分析 | 第132-135页 |
| ·距离判别准则 | 第132-133页 |
| ·夹角判别准则 | 第133-134页 |
| ·混合策略 | 第134-135页 |
| ·实验仿真 | 第135-136页 |
| ·结论 | 第136-138页 |
| 第九章 总结与展望 | 第138-140页 |
| 参考文献 | 第140-152页 |
| 致谢 | 第152-154页 |
| 读博士期间的研究论文和参加的科研项目 | 第154-155页 |