| 中文摘要 | 第3-4页 |
| 英文摘要 | 第4页 |
| 1 绪论 | 第7-13页 |
| 1.1 研究背景目的及意义 | 第7-9页 |
| 1.1.1 研究背景 | 第7-8页 |
| 1.1.2 研究目的 | 第8页 |
| 1.1.3 研究意义 | 第8-9页 |
| 1.2 国内外研究现状 | 第9-10页 |
| 1.2.1 国内研究现状 | 第9-10页 |
| 1.2.2 国外研究现状 | 第10页 |
| 1.3 行业研究的不足 | 第10-11页 |
| 1.4 论文的创新点和框架 | 第11-13页 |
| 1.4.1 论文的创新点 | 第11页 |
| 1.4.2 论文的框架 | 第11-13页 |
| 2 算法介绍 | 第13-23页 |
| 2.1 随机森林算法 | 第13-15页 |
| 2.2 GBDT算法 | 第15-18页 |
| 2.2.1 回归决策树(Regression Decision Tree) | 第16-17页 |
| 2.2.2 梯度迭代(Gradient Boosting) | 第17页 |
| 2.2.3 缩减(Shrinkage) | 第17-18页 |
| 2.3 XGBOOST算法 | 第18-20页 |
| 2.4 Light GBM算法 | 第20-21页 |
| 2.5 Logistic回归算法 | 第21-23页 |
| 3 模型指标体系构造 | 第23-33页 |
| 3.1 数据准备 | 第23页 |
| 3.2 数据预处理 | 第23-28页 |
| 3.2.1 数据清洗 | 第25-26页 |
| 3.2.2 数据集成 | 第26页 |
| 3.2.3 数据变换 | 第26-28页 |
| 3.3 特征选择 | 第28-30页 |
| 3.4 模型评价 | 第30-33页 |
| 3.4.1 分类评估指标 | 第30-31页 |
| 3.4.2 ROC曲线和AUC面积 | 第31页 |
| 3.4.3 K-S图 | 第31-33页 |
| 4 模型实证分析 | 第33-43页 |
| 4.1 随机森林算法的实证分析 | 第33-34页 |
| 4.2 GBDT算法的实证分析 | 第34-36页 |
| 4.3 XGBOOST算法的实证分析 | 第36-37页 |
| 4.4 Light GBM算法的实证分析 | 第37-38页 |
| 4.5 基于Light GBM和Logistic混合分类算法的实证分析 | 第38-40页 |
| 4.6 实验及结果分析 | 第40-43页 |
| 5 总结与展望 | 第43-44页 |
| 致谢 | 第44-45页 |
| 参考文献 | 第45-47页 |
| 附录 | 第47-51页 |