基于在线测评系统的编程题目难度研究
中文摘要 | 第3-4页 |
英文摘要 | 第4页 |
1 绪论 | 第7-14页 |
1.1 国内外研究背景 | 第7-8页 |
1.2 研究现状及意义 | 第8-10页 |
1.3 机器学习模型在题目难度预测中发挥的作用 | 第10-11页 |
1.4 本文创新点及贡献 | 第11-12页 |
1.5 本文结构 | 第12-14页 |
2 研究设计 | 第14-22页 |
2.1 研究材料 | 第14页 |
2.2 研究工具 | 第14-16页 |
2.2.1 决策树算法研究工具 | 第15-16页 |
2.2.2 随机森林算法研究工具 | 第16页 |
2.2.3 模型预测工具 | 第16页 |
2.3 研究步骤 | 第16-21页 |
2.3.1 研究概要设计分析 | 第17页 |
2.3.2 研究步骤具体设计分析 | 第17-21页 |
2.4 本章小结 | 第21-22页 |
3 决策树算法及关键技术 | 第22-30页 |
3.1 分类问题 | 第22-23页 |
3.2 决策树分类算法简介 | 第23-26页 |
3.2.1 决策树算法的基础知识 | 第23-25页 |
3.2.2 决策树算法的定义 | 第25-26页 |
3.3 决策树生成 | 第26-27页 |
3.4 决策树剪枝 | 第27-28页 |
3.5 决策树优点 | 第28-29页 |
3.6 本章小结 | 第29-30页 |
4 随机森林算法及关键技术 | 第30-36页 |
4.1 集成学习 | 第30-31页 |
4.1.1 集成学习概述 | 第30页 |
4.1.2 集成学习算法种类 | 第30-31页 |
4.1.3 弱学习器集成策略 | 第31页 |
4.2 随机森林算法的简介 | 第31-32页 |
4.3 随机森林算法的实现 | 第32-33页 |
4.3.1 随机森林算法原理 | 第32页 |
4.3.2 随机森林模型过程 | 第32-33页 |
4.4 随机森林算法的优点 | 第33-34页 |
4.5 K交叉验证 | 第34-35页 |
4.5.1 验证的必要性 | 第34页 |
4.5.2 交叉验证算法 | 第34-35页 |
4.6 本章小结 | 第35-36页 |
5 实验与分析 | 第36-48页 |
5.1 实验目的 | 第36页 |
5.2 实验环境 | 第36-37页 |
5.2.1 硬件环境 | 第36页 |
5.2.2 软件环境 | 第36-37页 |
5.3 实验数据 | 第37-40页 |
5.3.1 原始数据集 | 第37-38页 |
5.3.2 训练数据集 | 第38-40页 |
5.4 特征提取 | 第40-44页 |
5.4.1 特征粗提取分析 | 第40-43页 |
5.4.2 特征再处理 | 第43-44页 |
5.5 实验数据存在的问题 | 第44页 |
5.6 特征值数量分析 | 第44-46页 |
5.6.1 对决策树算法的分析 | 第44-46页 |
5.6.2 对随机森林算法的分析 | 第46页 |
5.7 实验结果分析 | 第46-47页 |
5.8 本章小结 | 第47-48页 |
6 总结与展望 | 第48-50页 |
6.1 全文总结 | 第48页 |
6.2 展望 | 第48-50页 |
致谢 | 第50-52页 |
参考文献 | 第52-54页 |
附录 作者在攻读学位期间发表的论文目录 | 第54页 |