面向在线学习的优化理论及算法研究
摘要 | 第5-7页 |
Abstract | 第7-9页 |
1 绪论 | 第13-28页 |
1.1 选题背景与意义 | 第13-17页 |
1.2 在线学习 | 第17-22页 |
1.2.1 监督学习与正则化 | 第17-20页 |
1.2.2 在线凸规划 | 第20-22页 |
1.3 国内外研究现状 | 第22-26页 |
1.4 本文研究内容 | 第26-28页 |
1.4.1 课题来源 | 第26页 |
1.4.2 研究内容安排 | 第26-28页 |
2 基于耦合线性化的在线学习算法 | 第28-48页 |
2.1 引言 | 第28-29页 |
2.2 批处理ADMM框架,最优性条件及残差 | 第29-31页 |
2.2.1 框架 | 第29-30页 |
2.2.2 最优性条件及残差 | 第30-31页 |
2.3 在线耦合线性化交替迭代算法 | 第31-40页 |
2.3.1 CLAIM | 第31-34页 |
2.3.2 Regret和收敛性分析 | 第34-40页 |
2.4 实验分析 | 第40-44页 |
2.4.1 实验一 | 第40-43页 |
2.4.2 实验二 | 第43-44页 |
2.5 CLAIM算法的扩展 | 第44-47页 |
2.5.1 伸缩CLAIM | 第44-45页 |
2.5.2 带重启动机制的伸缩CLAIM | 第45页 |
2.5.3 扩展CLAIM的性能比较 | 第45-47页 |
2.6 本章小结 | 第47-48页 |
3 基于随机谱梯度的在线学习算法 | 第48-62页 |
3.1 引言 | 第48-51页 |
3.2 随机谱梯度下降方法 | 第51-58页 |
3.2.1 相关知识 | 第51-53页 |
3.2.2 算法 | 第53-58页 |
3.3 实验分析 | 第58-61页 |
3.3.1 问题、数据集描述及算法参数设置 | 第58页 |
3.3.2 实验方法与结果 | 第58-61页 |
3.4 本章小结 | 第61-62页 |
4 面向在线学习的加权多任务学习算法 | 第62-88页 |
4.1 引言 | 第62-63页 |
4.2 准备知识 | 第63-64页 |
4.3 加权多任务学习 | 第64-71页 |
4.3.1 多任务学习问题设置 | 第65页 |
4.3.2 加权多任务学习模型 | 第65-66页 |
4.3.3 加权多任务学习模型的在线优化 | 第66-67页 |
4.3.4 Regret和收敛性分析 | 第67页 |
4.3.5 实验分析 | 第67-71页 |
4.4 面向特征与任务共选择的加权多任务学习 | 第71-82页 |
4.4.1 加权特征与任务共选择模型 | 第71页 |
4.4.2 加权特征与任务共选择模型的在线优化 | 第71-72页 |
4.4.3 Regret和收敛性分析 | 第72-75页 |
4.4.4 实验分析 | 第75-82页 |
4.5 多任务学习模型的进一步探讨 | 第82-87页 |
4.6 本章小结 | 第87-88页 |
5 面向在线学习的K-sparse字典学习算法 | 第88-104页 |
5.1 引言 | 第88-96页 |
5.1.1 稀疏表示的数学模型 | 第88-89页 |
5.1.2 稀疏编码 | 第89-91页 |
5.1.3 字典学习 | 第91-94页 |
5.1.4 在线字典学习 | 第94-96页 |
5.2 基于分块的K-sparse字典学习算法 | 第96-97页 |
5.2.1 算法概述 | 第96页 |
5.2.2 编码更新 | 第96-97页 |
5.2.3 字典更新 | 第97页 |
5.3 实验分析 | 第97-98页 |
5.3.1 数据集与实验设置 | 第97-98页 |
5.3.2 算法性能评估 | 第98页 |
5.4 本章小结 | 第98-104页 |
6 总结与展望 | 第104-106页 |
6.1 本文工作总结 | 第104-105页 |
6.2 未来工作展望 | 第105-106页 |
致谢 | 第106-108页 |
参考文献 | 第108-122页 |
附录 | 第122-126页 |