| 摘要 | 第1-7页 |
| ABSTRACT | 第7-9页 |
| 目录 | 第9-12页 |
| 第1章 引言 | 第12-26页 |
| ·经典的统计学习理论 | 第13-14页 |
| ·监督学习的数学框架 | 第14页 |
| ·经验风险最小化 | 第14-16页 |
| ·正则化 | 第16-17页 |
| ·再生核Hilbert空间 | 第17-19页 |
| ·积分算子和特征映射 | 第19-20页 |
| ·指数型概率不等式 | 第20-22页 |
| ·覆盖数 | 第22-23页 |
| ·论文概述 | 第23-26页 |
| 第2章 学习理论的相关研究课题 | 第26-34页 |
| ·回归分析 | 第26-27页 |
| ·分类问题 | 第27-30页 |
| ·利用支持向量机进行分类 | 第28-29页 |
| ·RKHS中的正则化分类算法 | 第29-30页 |
| ·聚类问题 | 第30-32页 |
| ·变量和特征选择 | 第32-33页 |
| ·流形学习 | 第33-34页 |
| 第3章 基于梯度数据的埃尔米特学习 | 第34-52页 |
| ·埃尔米特学习的数学框架和主要结果 | 第34-38页 |
| ·表示定理 | 第35-36页 |
| ·关于完美测度的收敛阶 | 第36-37页 |
| ·与经典的最小二乘正则化算法的比较 | 第37-38页 |
| ·表示定理和采样算子 | 第38-40页 |
| ·关于埃尔米特学习的误差分析 | 第40-52页 |
| ·逼近误差 | 第40-43页 |
| ·一个新的Mercer定理 | 第43-46页 |
| ·样本误差 | 第46-51页 |
| ·推导总的误差界 | 第51-52页 |
| 第4章 基于梯度学习的流形上的法向量估计 | 第52-64页 |
| ·关于法向量估计的主要结果 | 第52-54页 |
| ·利用线性代数求解算法 | 第54-55页 |
| ·由泛化误差来衡量法向量估计算法的性能 | 第55-59页 |
| ·指数映射和法坐标 | 第56页 |
| ·主要分析 | 第56-59页 |
| ·误差分解和假设误差 | 第59-60页 |
| ·估计样本误差与假设误差 | 第60-64页 |
| 第5章 e~1正则化学习算法的收敛估计 | 第64-80页 |
| ·关于e~1正则化学习算法的介绍 | 第64-67页 |
| ·e~2经验覆盖数的上界 | 第67-68页 |
| ·收敛估计的关键分析 | 第68-71页 |
| ·回顾误差分解技巧 | 第69页 |
| ·已知的关于逼近误差和假设误差的结果 | 第69-70页 |
| ·关键误差分析结果的阐述 | 第70-71页 |
| ·对样本误差的估计 | 第71-75页 |
| ·利用迭代来改进估计上界 | 第75-77页 |
| ·主要收敛结果的证明 | 第77-80页 |
| 第6章 基于e~2正则化子的核回归算法的收敛性分析 | 第80-94页 |
| ·基于样本依赖假设空间的e~2正则化算法 | 第80-81页 |
| ·关于e~2正则化子学习算法的关键分析 | 第81-85页 |
| ·误差分解 | 第82-84页 |
| ·假设空间的容量和主要结果 | 第84-85页 |
| ·估计逼近误差 | 第85-86页 |
| ·估计正则项误差及假设误差 | 第86-88页 |
| ·估计样本误差 | 第88-89页 |
| ·估计总误差界 | 第89-94页 |
| ·推导关于总误差的估计量 | 第89-91页 |
| ·利用迭代的方法改进估计量 | 第91-92页 |
| ·导出收敛阶 | 第92-94页 |
| 第7章 讨论及进一步的工作 | 第94-98页 |
| ·算子L_K和L的值域 | 第94-96页 |
| ·基于e~p正则化子的核回归算法 | 第96-98页 |
| 参考文献 | 第98-106页 |
| 致谢 | 第106-108页 |
| 攻读博士学位期间发表的学术论文 | 第108页 |