摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第11-16页 |
1.1 课题研究背景及意义 | 第11-14页 |
1.1.1 深度学习背景 | 第11-12页 |
1.1.2 强化学习背景 | 第12-13页 |
1.1.3 游戏博弈策略 | 第13-14页 |
1.2 本文的研究内容 | 第14页 |
1.3 本文的组织结构 | 第14-16页 |
第2章 深度神经网络与课程学习策略 | 第16-32页 |
2.1 深度学习背景介绍 | 第16-21页 |
2.1.1 机器学习与深度学习 | 第16-17页 |
2.1.2 深度学习的实现过程 | 第17-21页 |
2.2 神经网络 | 第21-27页 |
2.2.1 神经元与激活函数 | 第21-23页 |
2.2.2 网络的结构 | 第23-24页 |
2.2.3 反向传播算法 | 第24-27页 |
2.3 卷积神经网络 | 第27-30页 |
2.3.1 网络的结构 | 第27-28页 |
2.3.2 网络训练方法 | 第28-30页 |
2.4 课程学习策略 | 第30-31页 |
2.5 本章小结 | 第31-32页 |
第3章 强化学习与TensorFlow系统 | 第32-41页 |
3.1 强化学习介绍 | 第32-37页 |
3.1.1 强化学习简介 | 第32-34页 |
3.1.2 马尔科夫决策过程 | 第34-35页 |
3.1.3 动态规划求解MDP | 第35-37页 |
3.1.4 Q-Learning算法 | 第37页 |
3.2 TensorFlow系统介绍 | 第37-40页 |
3.2.1 TensorFlow简介 | 第37-38页 |
3.2.2 TensorFlow的基本用法 | 第38-40页 |
3.3 本章小结 | 第40-41页 |
第4章 DQN算法模型建立 | 第41-48页 |
4.1 背景及主要工作 | 第41-42页 |
4.2 MDP问题建模 | 第42-43页 |
4.3 DQN算法模型 | 第43-45页 |
4.3.1 探索与利用 | 第43-44页 |
4.3.2 价值函数估计 | 第44页 |
4.3.3 DQN算法 | 第44-45页 |
4.4 网络架构设计 | 第45-47页 |
4.5 本章小结 | 第47-48页 |
第5章 实验设计与结果分析 | 第48-58页 |
5.1 实验的设计与实现 | 第48-54页 |
5.1.1 研究目标 | 第48页 |
5.1.2 实验环境 | 第48页 |
5.1.3 建立游戏模型 | 第48-49页 |
5.1.4 课程学习策略 | 第49-50页 |
5.1.5 基于深度强化学习的游戏博弈策略的算法实现 | 第50-54页 |
5.2 实验结果分析 | 第54-58页 |
5.2.1 训练和稳定性 | 第54-55页 |
5.2.2 实验结果分析 | 第55-58页 |
第6章 总结与展望 | 第58-60页 |
参考文献 | 第60-63页 |
作者简介及在学期间所取得的科研成果 | 第63-64页 |
致谢 | 第64页 |