摘要 | 第1-7页 |
ABSTRACT | 第7-9页 |
目录 | 第9-12页 |
第1章 引言 | 第12-26页 |
·经典的统计学习理论 | 第13-14页 |
·监督学习的数学框架 | 第14页 |
·经验风险最小化 | 第14-16页 |
·正则化 | 第16-17页 |
·再生核Hilbert空间 | 第17-19页 |
·积分算子和特征映射 | 第19-20页 |
·指数型概率不等式 | 第20-22页 |
·覆盖数 | 第22-23页 |
·论文概述 | 第23-26页 |
第2章 学习理论的相关研究课题 | 第26-34页 |
·回归分析 | 第26-27页 |
·分类问题 | 第27-30页 |
·利用支持向量机进行分类 | 第28-29页 |
·RKHS中的正则化分类算法 | 第29-30页 |
·聚类问题 | 第30-32页 |
·变量和特征选择 | 第32-33页 |
·流形学习 | 第33-34页 |
第3章 基于梯度数据的埃尔米特学习 | 第34-52页 |
·埃尔米特学习的数学框架和主要结果 | 第34-38页 |
·表示定理 | 第35-36页 |
·关于完美测度的收敛阶 | 第36-37页 |
·与经典的最小二乘正则化算法的比较 | 第37-38页 |
·表示定理和采样算子 | 第38-40页 |
·关于埃尔米特学习的误差分析 | 第40-52页 |
·逼近误差 | 第40-43页 |
·一个新的Mercer定理 | 第43-46页 |
·样本误差 | 第46-51页 |
·推导总的误差界 | 第51-52页 |
第4章 基于梯度学习的流形上的法向量估计 | 第52-64页 |
·关于法向量估计的主要结果 | 第52-54页 |
·利用线性代数求解算法 | 第54-55页 |
·由泛化误差来衡量法向量估计算法的性能 | 第55-59页 |
·指数映射和法坐标 | 第56页 |
·主要分析 | 第56-59页 |
·误差分解和假设误差 | 第59-60页 |
·估计样本误差与假设误差 | 第60-64页 |
第5章 e~1正则化学习算法的收敛估计 | 第64-80页 |
·关于e~1正则化学习算法的介绍 | 第64-67页 |
·e~2经验覆盖数的上界 | 第67-68页 |
·收敛估计的关键分析 | 第68-71页 |
·回顾误差分解技巧 | 第69页 |
·已知的关于逼近误差和假设误差的结果 | 第69-70页 |
·关键误差分析结果的阐述 | 第70-71页 |
·对样本误差的估计 | 第71-75页 |
·利用迭代来改进估计上界 | 第75-77页 |
·主要收敛结果的证明 | 第77-80页 |
第6章 基于e~2正则化子的核回归算法的收敛性分析 | 第80-94页 |
·基于样本依赖假设空间的e~2正则化算法 | 第80-81页 |
·关于e~2正则化子学习算法的关键分析 | 第81-85页 |
·误差分解 | 第82-84页 |
·假设空间的容量和主要结果 | 第84-85页 |
·估计逼近误差 | 第85-86页 |
·估计正则项误差及假设误差 | 第86-88页 |
·估计样本误差 | 第88-89页 |
·估计总误差界 | 第89-94页 |
·推导关于总误差的估计量 | 第89-91页 |
·利用迭代的方法改进估计量 | 第91-92页 |
·导出收敛阶 | 第92-94页 |
第7章 讨论及进一步的工作 | 第94-98页 |
·算子L_K和L的值域 | 第94-96页 |
·基于e~p正则化子的核回归算法 | 第96-98页 |
参考文献 | 第98-106页 |
致谢 | 第106-108页 |
攻读博士学位期间发表的学术论文 | 第108页 |