中文摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 引言 | 第10-15页 |
1.1 研究背景及意义 | 第10-11页 |
1.2 研究现状 | 第11-12页 |
1.3 研究内容 | 第12-13页 |
1.4 论文组织结构 | 第13-15页 |
第二章 背景知识 | 第15-22页 |
2.1 马尔科夫决策过程 | 第15-16页 |
2.2 强化学习经典算法 | 第16-19页 |
2.2.1 动态规划 | 第16-17页 |
2.2.2 蒙特卡罗方法 | 第17-18页 |
2.2.3 时间差分方法 | 第18-19页 |
2.3 模型学习方法 | 第19-21页 |
2.4 本章小结 | 第21-22页 |
第三章 基于轨迹采样Dyna-Search的值迭代算法 | 第22-34页 |
3.1 启发式搜索 | 第22-23页 |
3.1.1 将规划用于动作选择 | 第22-23页 |
3.1.2 TD搜索 | 第23页 |
3.2 基于轨迹采样Dyna-Search的值迭代算法 | 第23-28页 |
3.2.1 轨迹采样的值迭代 | 第23-24页 |
3.2.2 模型构建 | 第24-25页 |
3.2.3 DynaTSVI | 第25-27页 |
3.2.4 算法分析 | 第27-28页 |
3.3 实验及结果分析 | 第28-33页 |
3.3.1 Dyna Maze | 第28-31页 |
3.3.2 带风的格子世界 | 第31-33页 |
3.4 本章小结 | 第33-34页 |
第四章 基于自模拟度量和R-MAX的Dyna算法 | 第34-44页 |
4.1 Dyna-H | 第34-35页 |
4.2 自模拟度量 | 第35页 |
4.3 R-MAX | 第35-36页 |
4.4 BMRMAX算法 | 第36-39页 |
4.4.1 自模拟度量与R-MAX相结合 | 第36-37页 |
4.4.2 算法描述 | 第37-38页 |
4.4.3 算法分析 | 第38-39页 |
4.5 实验及结果分析 | 第39-43页 |
4.5.1 Red Herring | 第39-42页 |
4.5.2 Dyna Maze | 第42-43页 |
4.6 本章小结 | 第43-44页 |
第五章 基于近似模型的连续空间Dyna算法 | 第44-55页 |
5.1 值函数的近似表示 | 第44-45页 |
5.2 近似模型 | 第45页 |
5.3 梯度下降的TD(λ) | 第45-47页 |
5.4 基于近似模型的连续空间Dyna算法 | 第47-50页 |
5.4.1 自适应的规划强度 | 第47页 |
5.4.2 优先级队列 | 第47-48页 |
5.4.3 ε衰减 | 第48页 |
5.4.4 算法描述 | 第48-50页 |
5.5 实验结果与分析 | 第50-54页 |
5.5.1 Mountain Car实验介绍 | 第50-51页 |
5.5.2 奖赏的设置 | 第51-52页 |
5.5.3 实验结果分析 | 第52-54页 |
5.6 本章小结 | 第54-55页 |
第六章 总结与展望 | 第55-57页 |
6.1 总结 | 第55-56页 |
6.2 展望 | 第56-57页 |
参考文献 | 第57-61页 |
攻读硕士学位期间公开发表(录用)的论文与科研项目 | 第61-62页 |
致谢 | 第62-63页 |