摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第一章 绪论 | 第9-13页 |
1.1 研究背景和意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-11页 |
1.3 本文研究内容 | 第11-12页 |
1.4 本文组织结构 | 第12-13页 |
第二章 相关理论及技术原理 | 第13-20页 |
2.1 MOOC相关介绍 | 第13页 |
2.2 分类算法的评价标准 | 第13-14页 |
2.3 Hadoop分布式平台 | 第14-19页 |
2.3.1 Hadoop概述 | 第14页 |
2.3.2 HDFS分布式文件系统 | 第14-18页 |
2.3.3 MapReduce分布式计算框架 | 第18-19页 |
2.4 本章小节 | 第19-20页 |
第三章 SVM相关理论研究 | 第20-31页 |
3.1 统计学习理论 | 第20-22页 |
3.1.1 经验风险最小化原则 | 第20-21页 |
3.1.2 VC维 | 第21页 |
3.1.3 结构风险最小化原则 | 第21-22页 |
3.2 支持向量机(SVM)原理 | 第22-28页 |
3.2.1 线性可分情况 | 第23-26页 |
3.2.2 线性不可分情况 | 第26-28页 |
3.3 SVM待优化参数与交叉验证 | 第28-30页 |
3.3.1 待优化参数 | 第28-29页 |
3.3.2 交叉验证 | 第29-30页 |
3.4 本章小节 | 第30-31页 |
第四章 两种支持向量机参数寻优的比较 | 第31-44页 |
4.1 粒子群优化算法及其改进 | 第31-33页 |
4.1.1 标准粒子群算法 | 第31-33页 |
4.1.2 改进的二进制粒子群 | 第33页 |
4.2 遗传算法 | 第33-36页 |
4.3 针对MOOC平台样本不均衡的SVM优化 | 第36-37页 |
4.4 实验设计及分析 | 第37-43页 |
4.4.1 实验数据集&实验环境 | 第37-38页 |
4.4.2 GA与二进制PSO的SVM参数寻优实验设计 | 第38-40页 |
4.4.3 实验结果与分析 | 第40-43页 |
4.5 本章小节 | 第43-44页 |
第五章 基于Hadoop的并行支持向量机 | 第44-60页 |
5.1 层叠支持向量机 | 第44-49页 |
5.1.1 层叠支持向量机的基础理论 | 第44-47页 |
5.1.2 层叠支持向量机的收敛证明 | 第47-49页 |
5.2 层叠支持向量机的改进 | 第49-51页 |
5.2.1 层叠向量机算法的两点改进 | 第49-50页 |
5.2.2 训练样本集划分改进 | 第50-51页 |
5.3 基于Hadoop的并行SVM算法实现 | 第51-53页 |
5.4 实验设计及分析 | 第53-59页 |
5.4.1 实验数据集&实验环境 | 第54-56页 |
5.4.2 并行SVM分类实验设计与分析 | 第56-59页 |
5.5 本章小节 | 第59-60页 |
第六章 总结与展望 | 第60-61页 |
6.1 全文总结 | 第60页 |
6.2 工作展望 | 第60-61页 |
致谢 | 第61-62页 |
参考文献 | 第62-65页 |
附录 | 第65-66页 |
详细摘要 | 第66-68页 |