基于在线测评系统的编程题目难度研究
| 中文摘要 | 第3-4页 |
| 英文摘要 | 第4页 |
| 1 绪论 | 第7-14页 |
| 1.1 国内外研究背景 | 第7-8页 |
| 1.2 研究现状及意义 | 第8-10页 |
| 1.3 机器学习模型在题目难度预测中发挥的作用 | 第10-11页 |
| 1.4 本文创新点及贡献 | 第11-12页 |
| 1.5 本文结构 | 第12-14页 |
| 2 研究设计 | 第14-22页 |
| 2.1 研究材料 | 第14页 |
| 2.2 研究工具 | 第14-16页 |
| 2.2.1 决策树算法研究工具 | 第15-16页 |
| 2.2.2 随机森林算法研究工具 | 第16页 |
| 2.2.3 模型预测工具 | 第16页 |
| 2.3 研究步骤 | 第16-21页 |
| 2.3.1 研究概要设计分析 | 第17页 |
| 2.3.2 研究步骤具体设计分析 | 第17-21页 |
| 2.4 本章小结 | 第21-22页 |
| 3 决策树算法及关键技术 | 第22-30页 |
| 3.1 分类问题 | 第22-23页 |
| 3.2 决策树分类算法简介 | 第23-26页 |
| 3.2.1 决策树算法的基础知识 | 第23-25页 |
| 3.2.2 决策树算法的定义 | 第25-26页 |
| 3.3 决策树生成 | 第26-27页 |
| 3.4 决策树剪枝 | 第27-28页 |
| 3.5 决策树优点 | 第28-29页 |
| 3.6 本章小结 | 第29-30页 |
| 4 随机森林算法及关键技术 | 第30-36页 |
| 4.1 集成学习 | 第30-31页 |
| 4.1.1 集成学习概述 | 第30页 |
| 4.1.2 集成学习算法种类 | 第30-31页 |
| 4.1.3 弱学习器集成策略 | 第31页 |
| 4.2 随机森林算法的简介 | 第31-32页 |
| 4.3 随机森林算法的实现 | 第32-33页 |
| 4.3.1 随机森林算法原理 | 第32页 |
| 4.3.2 随机森林模型过程 | 第32-33页 |
| 4.4 随机森林算法的优点 | 第33-34页 |
| 4.5 K交叉验证 | 第34-35页 |
| 4.5.1 验证的必要性 | 第34页 |
| 4.5.2 交叉验证算法 | 第34-35页 |
| 4.6 本章小结 | 第35-36页 |
| 5 实验与分析 | 第36-48页 |
| 5.1 实验目的 | 第36页 |
| 5.2 实验环境 | 第36-37页 |
| 5.2.1 硬件环境 | 第36页 |
| 5.2.2 软件环境 | 第36-37页 |
| 5.3 实验数据 | 第37-40页 |
| 5.3.1 原始数据集 | 第37-38页 |
| 5.3.2 训练数据集 | 第38-40页 |
| 5.4 特征提取 | 第40-44页 |
| 5.4.1 特征粗提取分析 | 第40-43页 |
| 5.4.2 特征再处理 | 第43-44页 |
| 5.5 实验数据存在的问题 | 第44页 |
| 5.6 特征值数量分析 | 第44-46页 |
| 5.6.1 对决策树算法的分析 | 第44-46页 |
| 5.6.2 对随机森林算法的分析 | 第46页 |
| 5.7 实验结果分析 | 第46-47页 |
| 5.8 本章小结 | 第47-48页 |
| 6 总结与展望 | 第48-50页 |
| 6.1 全文总结 | 第48页 |
| 6.2 展望 | 第48-50页 |
| 致谢 | 第50-52页 |
| 参考文献 | 第52-54页 |
| 附录 作者在攻读学位期间发表的论文目录 | 第54页 |