摘要 | 第3-4页 |
ABSTRACT | 第4-5页 |
第1章 引言 | 第8-11页 |
1.1 研究背景和意义 | 第8-9页 |
1.2 相关方法的研究现状 | 第9-10页 |
1.3 本文的主要工作 | 第10页 |
1.4 本文的内容结构安排 | 第10-11页 |
第2章 相关原理和技术 | 第11-25页 |
2.1 深度学习 | 第11-18页 |
2.1.1 从浅层学习到深度学习 | 第11-12页 |
2.1.2 神经网络 | 第12-14页 |
2.1.3 后向传播算法 | 第14-17页 |
2.1.4 深度学习中防止过拟合的常用技巧 | 第17-18页 |
2.2 决策树集成方法 | 第18-25页 |
2.2.1 决策树模型 | 第19-20页 |
2.2.2 提升方法 | 第20-22页 |
2.2.3 梯度提升决策树方法 | 第22-23页 |
2.2.4 决策树集成当中常用的优化技巧 | 第23-25页 |
第3章 FORESTNET模型及求解算法 | 第25-44页 |
3.1 FORESTNET模型 | 第25-28页 |
3.1.1 模型提出的背景 | 第25-28页 |
3.1.2 模型的定义 | 第28页 |
3.2 FORESTNET求解算法 | 第28-35页 |
3.2.1 算法设计 | 第29-30页 |
3.2.2 森林层的更新 | 第30-33页 |
3.2.3 森林层的参数初始化 | 第33页 |
3.2.4 整体算法描述 | 第33-35页 |
3.3 模型与多层感知机和决策树集成模型之间的联系 | 第35页 |
3.4 损失函数设计 | 第35-38页 |
3.4.1 分类问题的损失函数 | 第35-36页 |
3.4.2 回归问题的损失函数 | 第36页 |
3.4.3 排序学习问题的损失函数 | 第36-38页 |
3.5 使用二阶方法求解FORESTNET | 第38-41页 |
3.5.1 引入二阶方法的动机 | 第38页 |
3.5.2 Forestnet中实现二阶方法 | 第38-41页 |
3.6 算法实现与复杂度分析 | 第41-44页 |
3.6.1 算法实现 | 第41页 |
3.6.2 算法复杂度分析 | 第41-44页 |
第4章 实验设计与结果分析 | 第44-60页 |
4.1 模型结构与参数选择 | 第44-46页 |
4.2 实验内容 | 第46-60页 |
4.2.1 分类与回归问题 | 第46-55页 |
4.2.2 排序学习问题 | 第55-60页 |
第5章 总结与展望 | 第60-62页 |
5.1 总结 | 第60页 |
5.2 展望 | 第60-62页 |
参考文献 | 第62-65页 |
致谢 | 第65页 |