基于机器学习的游戏智能系统研究与应用
| 摘要 | 第5-6页 |
| abstract | 第6页 |
| 第一章 绪论 | 第9-14页 |
| 1.1 研究工作的背景与意义 | 第9-10页 |
| 1.2 国内外研究历史与现状 | 第10-12页 |
| 1.2.1 深度学习背景 | 第10页 |
| 1.2.2 强化学习背景 | 第10-11页 |
| 1.2.3 DQN在Atari游戏中的应用 | 第11-12页 |
| 1.3 本文的主要贡献与创新 | 第12-13页 |
| 1.4 本论文的结构安排 | 第13-14页 |
| 第二章 神经网络介绍 | 第14-31页 |
| 2.1 机器学习与深度学习介绍 | 第14-17页 |
| 2.1.1 机器学习背景 | 第14-16页 |
| 2.1.2 深度学习背景 | 第16-17页 |
| 2.2 神经网络 | 第17-22页 |
| 2.2.1 神经元与激活函数 | 第17-19页 |
| 2.2.2 网络的结构 | 第19-20页 |
| 2.2.3 反向传播算法 | 第20-22页 |
| 2.3 卷积神经网络 | 第22-24页 |
| 2.3.1 网络的结构 | 第22-24页 |
| 2.3.2 网络训练方法 | 第24页 |
| 2.4 循环神经网络以及LSTM | 第24-30页 |
| 2.4.1 循环网络的结构 | 第24-26页 |
| 2.4.2 循环网络的训练以及梯度的消失和爆炸 | 第26-28页 |
| 2.4.3 LSTM网络 | 第28-30页 |
| 2.5 本章小结 | 第30-31页 |
| 第三章 强化学习及VIZDOOM平台介绍 | 第31-42页 |
| 3.1 强化学习介绍 | 第31-35页 |
| 3.1.1 强化学习简介 | 第31-32页 |
| 3.1.2 马尔科夫决策过程 | 第32-33页 |
| 3.1.3 动态规划求解MDP | 第33-35页 |
| 3.2 Q-Learning算法与DQN算法 | 第35-39页 |
| 3.2.1 DQN结构 | 第36-37页 |
| 3.2.2 DQN算法 | 第37-39页 |
| 3.3 Vizdoom | 第39-41页 |
| 3.3.1 Vizdoom平台简介 | 第39-40页 |
| 3.3.2 Vizdoom平台接口 | 第40-41页 |
| 3.3.3 Vizdoom游戏评测机制 | 第41页 |
| 3.4 本章小结 | 第41-42页 |
| 第四章 改进的DRQN算法 | 第42-53页 |
| 4.1 背景及主要工作 | 第42-43页 |
| 4.2 DRQN介绍 | 第43-45页 |
| 4.3 一种改进的Actor-Critic方法 | 第45-49页 |
| 4.3.1 Actor-Critic方法 | 第45-46页 |
| 4.3.2 A3C算法 | 第46-49页 |
| 4.4 预处理以及reward Shaping | 第49-52页 |
| 4.5 网络结构设计 | 第52页 |
| 4.6 本章小结 | 第52-53页 |
| 第五章 基于机器学习的智能系统的设计与实现 | 第53-64页 |
| 5.1 系统的概要设计 | 第53-54页 |
| 5.1.1 系统目标 | 第53页 |
| 5.1.2 开发环境 | 第53页 |
| 5.1.3 Tensorflow简介 | 第53-54页 |
| 5.2 系统的设计以及实现 | 第54-58页 |
| 5.2.1 系统流程以及框架 | 第54-55页 |
| 5.2.2 网络架构实现 | 第55-56页 |
| 5.2.3 异步训练模块实现 | 第56-58页 |
| 5.2.4 测试模块实现 | 第58页 |
| 5.3 实验的结果分析对比 | 第58-63页 |
| 5.3.1 实验方案设计 | 第58-60页 |
| 5.3.2 实验结果分析 | 第60-63页 |
| 5.4 本章小结 | 第63-64页 |
| 第六章 全文总结与展望 | 第64-65页 |
| 致谢 | 第65-66页 |
| 参考文献 | 第66-69页 |