摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第9-15页 |
1.1 课题背景 | 第9-10页 |
1.2 强化学习研究现状 | 第10-13页 |
1.2.1 Q-learning | 第10-12页 |
1.2.2 深度强化学习 | 第12-13页 |
1.3 论文内容及组织结构 | 第13-15页 |
第2章 冰壶对抗仿真平台建设 | 第15-31页 |
2.1 引言 | 第15页 |
2.2 冰壶对抗仿真平台的规划与设计 | 第15-16页 |
2.3 冰壶动力学和运动学模型的实现 | 第16-19页 |
2.3.1 冰壶碰撞模型 | 第16-18页 |
2.3.2 冰壶数学仿真运算模块 | 第18-19页 |
2.4 冰壶对抗仿真平台前端布局 | 第19-23页 |
2.4.1 登录与注册模块 | 第20-21页 |
2.4.2 冰壶对抗仿真平台主页面 | 第21-22页 |
2.4.3 冰壶位置与轨迹的实现 | 第22-23页 |
2.5 冰壶对抗仿真平台后台框架 | 第23-29页 |
2.5.1 服务器架构 | 第23-24页 |
2.5.2 配置文件 | 第24页 |
2.5.3 采样点数据存储 | 第24-26页 |
2.5.4 登录与注册功能模块 | 第26-27页 |
2.5.5 冰壶投掷模块 | 第27-28页 |
2.5.6 比赛信息模块 | 第28-29页 |
2.6 性能测试 | 第29-30页 |
2.7 本章小结 | 第30-31页 |
第3章 冰壶对抗策略生成算法 | 第31-39页 |
3.1 引言 | 第31页 |
3.2 基于PSO粒子群算法的策略生成方法 | 第31-33页 |
3.2.1 PSO粒子群算法来源与背景 | 第31-32页 |
3.2.2 PSO粒子群算法原理 | 第32-33页 |
3.3 基于蒙特卡洛方法与监督学习网络结合的策略生成方法 | 第33-36页 |
3.3.1 博弈树 | 第33-34页 |
3.3.2 极大极小值算法与Alpha-Beta剪枝 | 第34-36页 |
3.3.3 蒙特卡洛方法 | 第36页 |
3.4 基于深度强化学习算法的策略生成方法 | 第36-38页 |
3.5 本章小结 | 第38-39页 |
第4章 仿真实验及结果分析 | 第39-46页 |
4.1 引言 | 第39页 |
4.2 PSO粒子群算法仿真实验说明 | 第39-41页 |
4.3 蒙特卡洛方法与监督学习网络仿真实验说明 | 第41-44页 |
4.4 深度强化学习网络仿真实验说明 | 第44-45页 |
4.5 本章小结 | 第45-46页 |
结论 | 第46-47页 |
参考文献 | 第47-52页 |
致谢 | 第52页 |