致谢 | 第5-6页 |
摘要 | 第6-7页 |
Abstract | 第7页 |
第一章 绪论 | 第10-20页 |
1.1 研究背景 | 第10-11页 |
1.2 研究现状 | 第11-17页 |
1.2.1 国内外强化研究学习现状 | 第11-14页 |
1.2.2 NPC AI设计行业现状 | 第14-17页 |
1.3 研究内容 | 第17-19页 |
1.3.1 研究难点 | 第17-18页 |
1.3.2 研究贡献 | 第18-19页 |
1.4 文章结构 | 第19-20页 |
第二章 深度强化学习理论基础 | 第20-38页 |
2.1 强化学习模型与符号约定 | 第20-23页 |
2.2 通用解法 | 第23-28页 |
2.2.1 矩阵求解法 | 第23页 |
2.2.2 基于模型的动态规划法 | 第23-24页 |
2.2.3 蒙特卡罗方法(Monte Carlo method) | 第24-26页 |
2.2.4 时间差分法(Temporal-Difference Learning) | 第26-28页 |
2.2.5 值函数近似 | 第28页 |
2.3 深度学习基础 | 第28-34页 |
2.3.1 常见激活函数 | 第28-30页 |
2.3.2 全连接网络(Fully Connected Networks) | 第30-31页 |
2.3.3 卷积神经网络(Convolutional Neural Networks) | 第31-33页 |
2.3.4 循环神经网络(Recurrent Neural Networks) | 第33-34页 |
2.4 深度强化学习 | 第34-38页 |
2.4.1 DEEP Q-LEARNING NETWORK | 第34-38页 |
第三章 DQN在游戏中的应用 | 第38-52页 |
3.1 问题背景介绍 | 第38-46页 |
3.1.1 职业血河介绍 | 第39-43页 |
3.1.2 职业神相介绍 | 第43-46页 |
3.2 DQN模型配置 | 第46-49页 |
3.2.1 血河技能配置 | 第47-48页 |
3.2.2 神相与DQN算法设置 | 第48-49页 |
3.3 仿真平台——《MiniGame》 | 第49-52页 |
第四章 分布式DQN系统及DQN算法改进 | 第52-60页 |
4.1 分布式DQN系统 | 第52-55页 |
4.2 原始算法改进 | 第55-60页 |
4.2.1 批优先级经验池-BPDQN | 第55-58页 |
4.2.2 模仿学习-DQFD | 第58-60页 |
第五章 多样性AI训练算法与最终效果展示 | 第60-70页 |
5.1 多样性AI算法-H-ART-DQN | 第60-64页 |
5.2 实验结果与分析 | 第64-70页 |
第六章 总结和展望 | 第70-72页 |
6.1 总结 | 第70页 |
6.2 展望 | 第70-72页 |
参考文献 | 第72-78页 |
个人成果 | 第78-80页 |
个人简历 | 第80页 |