摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第9-15页 |
1.1 课题研究背景和意义 | 第9-11页 |
1.1.1 课题研究背景 | 第9-10页 |
1.1.2 研究的目的和意义 | 第10-11页 |
1.2 国内外相关研究及综述 | 第11-13页 |
1.3 主要研究内容及组织结构 | 第13-15页 |
1.3.1 主要研究内容 | 第13-14页 |
1.3.2 论文的组织结构 | 第14-15页 |
第2章 非完备信息机器博弈 | 第15-31页 |
2.1 非完备信息游戏中的博弈问题 | 第15-16页 |
2.2 估值函数 | 第16-17页 |
2.2.1 静态估值函数 | 第16页 |
2.2.2 动态估值函数 | 第16-17页 |
2.3 部分可观测马尔科夫决策过程 | 第17-19页 |
2.4 深度强化学习 | 第19-30页 |
2.4.1 强化学习 | 第19-23页 |
2.4.2 深度学习 | 第23-25页 |
2.4.3 深度强化学习算法 | 第25-30页 |
2.5 本章小结 | 第30-31页 |
第3章 基于深度强化学习的非完备信息机器博弈 | 第31-48页 |
3.1 改进的深度强化学习网络 | 第31-43页 |
3.1.1 长短期记忆模型LSTM | 第31-37页 |
3.1.2 双重Q学习 | 第37-39页 |
3.1.3 基于优先级搜索的记忆回放 | 第39-43页 |
3.2 可视化强化学习研究平台Vizdoom | 第43-45页 |
3.3 基于改进深度强化学习算法的Vizdoom3D游戏博弈 | 第45-47页 |
3.4 本章小结 | 第47-48页 |
第4章 Vizdoom游戏的系统实现和实验分析 | 第48-58页 |
4.1 Vizdoom游戏系统 | 第48-52页 |
4.1.1 Vizdoom游戏系统框架 | 第48页 |
4.1.2 改进的深度强化学习网络结构 | 第48-49页 |
4.1.3 Vizdoom游戏训练方式及参数设置 | 第49-52页 |
4.2 实验结果对比与分析 | 第52-57页 |
4.2.1 基本场景中算法时效性与平均Q值对比 | 第52-53页 |
4.2.2 生存困境场景中智能体生存能力对比 | 第53-54页 |
4.2.3 守护亚典娜场景中智能体生存能力对比 | 第54-56页 |
4.2.4 死亡对战场景智能体对战能力对比 | 第56-57页 |
4.3 本章小结 | 第57-58页 |
结论 | 第58-60页 |
参考文献 | 第60-66页 |
致谢 | 第66页 |