第一章 绪论 | 第1-22页 |
ξ1.1 神经网络发展的历史回顾 | 第10-13页 |
ξ1.1.1 历史回顾 | 第10-12页 |
ξ1.1.2 神经网络的特点以及应用 | 第12-13页 |
ξ1.2 支持向量机产生的背景及其发展现状 | 第13-20页 |
ξ1.2.1 支持向量机产生与发展概况 | 第13-14页 |
ξ1.2.2 统计学习理论简介 | 第14-17页 |
ξ1.2.3 统计学习算法的构造 | 第17-20页 |
ξ1.2.4 支持向量机面临的主要问题 | 第20页 |
§1.3 本文的主要结果 | 第20-22页 |
第二章 约束优化问题的神经网络方法 | 第22-34页 |
ξ2.1 引言及预备知识 | 第22-23页 |
ξ2.2 闭凸集上连续可微优化的Hopfield神经网络模型及其数学分析 | 第23-31页 |
ξ2.2.1 解的整体存在性 | 第23-26页 |
§2.2.2 解的拟收敛与渐进收敛性 | 第26-31页 |
ξ2.3 数值实验以及结论 | 第31-34页 |
ξ2.3.1 数值例子 | 第31-33页 |
§2.3.2 本章小节 | 第33-34页 |
第三章 一般隐互补问题(ICP)的神经网络方法 | 第34-44页 |
ξ3.1 引言及预备知识 | 第34-37页 |
ξ3.2 建立基于投影的Hopfield神经网络解一般隐互补问题 | 第37-42页 |
§3.3 数值实验以及结论 | 第42-44页 |
§3.3.1 数值实验 | 第42页 |
§3.3.2 本章小结 | 第42-44页 |
第四章 基于样本的支持向量机的简化方法 | 第44-68页 |
§4.1 引言及预备知识 | 第44-47页 |
§4.2 分类问题中利用特征空间中样本的选取与分离简化SVM | 第47-53页 |
§4.2.1 特征空间中样本选取的方法 | 第48-52页 |
§4.2.2 特征空间中样本分离的方法 | 第52-53页 |
§4.3 回归问题中基于样本的SVM的简化方法 | 第53-60页 |
§4.3.1 支持向量机回归问题的数学表示及其标准形式 | 第54-56页 |
§4.3.2 利用分块方法简化支持向量机的回归问题 | 第56-59页 |
§4.3.3 基于分块方法及模糊参数的支持向量机的预测 | 第59-60页 |
§4.4 R~n中算子逼近的SVM方法及其分块训练 | 第60-66页 |
§4.4.1 有限维空间中算子逼近的支持向量机 | 第61-64页 |
§4.4.2 分块算法与实验 | 第64-66页 |
§4.5 本章小结 | 第66-68页 |
第五章 神经网络方法在支持向量机中的应用 | 第68-76页 |
§5.1 引言 | 第68-69页 |
§5.2 支持向量机训练中二次规划问题的神经网络方法 | 第69-73页 |
§5.2.1 支持向量机用于分类问题的神经网络方法 | 第69-71页 |
§5.2.2 支持向量机用于回归问题的神经网络方法 | 第71-73页 |
§5.3 数值实验以及结论 | 第73-76页 |
§5.3.1 数值实验 | 第73-74页 |
§5.3.2 本章小结 | 第74-76页 |
参考文献 | 第76-87页 |
论文独创性声明 | 第87页 |
论文使用授权声明 | 第87页 |