摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 前言 | 第9-19页 |
1.1 多任务学习的研究背景及其意义 | 第9-11页 |
1.2 相关工作 | 第11-15页 |
1.2.1 共享先验的层次贝叶斯模型 | 第11-12页 |
1.2.2 共享隐层节点的神经网络 | 第12页 |
1.2.3 多任务学习的正则化模型 | 第12-14页 |
1.2.4 多任务学习的任务聚类模型 | 第14-15页 |
1.2.5 鲁棒的多任务学习 | 第15页 |
1.3 与现有其他机器学习算法的关系 | 第15-16页 |
1.4 研究内容和主要贡献 | 第16-17页 |
1.5 章节结构 | 第17-19页 |
第二章 稀疏表示及其扩展 | 第19-29页 |
2.1 引言 | 第19-20页 |
2.2 稀疏表示的定义 | 第20-22页 |
2.2.1 向量的稀疏表示 | 第20页 |
2.2.2 矩阵的组稀疏表示 | 第20-21页 |
2.2.3 矩阵的低秩表示 | 第21-22页 |
2.3 求解算法 | 第22-28页 |
2.3.1 软阈值法 | 第22-25页 |
2.3.2 重加权算法 | 第25-26页 |
2.3.3 近端梯度算法 | 第26-28页 |
2.4 小结 | 第28-29页 |
第三章 子空间聚类的多任务学习算法 | 第29-47页 |
3.1 引言 | 第29-30页 |
3.2 相关工作 | 第30-31页 |
3.3 子空间任务聚类 | 第31-33页 |
3.4 算法优化与分析 | 第33-35页 |
3.5 泛化性能界 | 第35-41页 |
3.6 实验 | 第41-46页 |
3.6.1 生成数据集 | 第41-43页 |
3.6.2 实际数据 | 第43-46页 |
3.7 小结 | 第46-47页 |
第四章 鲁棒的多任务学习算法 | 第47-71页 |
4.1 引言 | 第47-48页 |
4.2 使用混合l_(11)/l_(21)范数正则化的多任务学习 | 第48-57页 |
4.2.1 公式 | 第48-49页 |
4.2.2 迭代最小二乘法的优化求解 | 第49-52页 |
4.2.3 使用加速的近端梯度下降算法的优化方法 | 第52-56页 |
4.2.4 MTL-IRLS和MTL-APG的关系 | 第56-57页 |
4.3 收敛性证明 | 第57-58页 |
4.4 泛化性能界 | 第58-63页 |
4.5 实验 | 第63-69页 |
4.5.1 生成数据 | 第63-64页 |
4.5.2 真实数据 | 第64-67页 |
4.5.3 参数敏感度分析 | 第67-68页 |
4.5.4 算法性能分析 | 第68-69页 |
4.6 小结 | 第69-71页 |
第五章 多任务学习在细粒度图像分类中的应用 | 第71-85页 |
5.1 引言 | 第71-73页 |
5.2 相关工作 | 第73-74页 |
5.3 细粒度图像分类的多任务学习算法 | 第74-78页 |
5.3.1 公式记号 | 第74-75页 |
5.3.2 特定的多任务学习算法 | 第75-76页 |
5.3.3 优化策略 | 第76-78页 |
5.4 实验 | 第78-83页 |
5.4.1 数据集和实验设定 | 第78-80页 |
5.4.2 实验和讨论 | 第80-83页 |
5.5 小结 | 第83-85页 |
第六章 总结和未来的工作 | 第85-87页 |
6.1 总结 | 第85页 |
6.2 未来的工作 | 第85-87页 |
参考文献 | 第87-101页 |
发表文章目录 | 第101-103页 |
致谢 | 第103-104页 |