摘要 | 第3-4页 |
ABSTRACT | 第4页 |
第1章 前言 | 第7-11页 |
1.1 研究背景与现状 | 第7-8页 |
1.2 研究强化学习的意义 | 第8-9页 |
1.3 当代强化学习与函数逼近 | 第9-11页 |
第2章 强化学习简介 | 第11-19页 |
2.1 强化学习简介 | 第11-13页 |
2.2 马尔科夫决策过程 | 第13-19页 |
2.2.1 策略(policy) | 第14页 |
2.2.2 价值函数 | 第14-15页 |
2.2.3 Bellman方程 | 第15页 |
2.2.4 最优策略 | 第15-16页 |
2.2.5 最优策略的存在性 | 第16-18页 |
2.2.6 强化学习的难点 | 第18-19页 |
第3章 强化学习的基本方法 | 第19-27页 |
3.1 动态规划(Dynamic Programming,DP) | 第19-23页 |
3.1.1 策略估值 | 第20页 |
3.1.2 策略迭代 | 第20-23页 |
3.1.3 值迭代 | 第23页 |
3.2 蒙特卡罗算法(Monte Carlo,MC) | 第23-27页 |
3.2.1 MC的基本思想 | 第24-25页 |
3.2.2 MC策略提升 | 第25-26页 |
3.2.3 增量式的实现 | 第26-27页 |
第4章 多步时间差分算法的理论分析 | 第27-35页 |
4.1 时间差分算法(Temporal Difference,TD) | 第27页 |
4.2 Sarsa算法 | 第27-28页 |
4.3 Expected Sarsa算法 | 第28-29页 |
4.3.1 Sarsa与Expected Sarsa的收敛性分析 | 第28-29页 |
4.4 Q(σ)算法 | 第29-30页 |
4.5 多步时间差分算法 | 第30-35页 |
4.5.1 多步Sarsa算法 | 第30页 |
4.5.2 多步Tree Backup算法 | 第30-31页 |
4.5.3 多步Q(σ)算法 | 第31-35页 |
第5章 结束语 | 第35-37页 |
参考文献 | 第37-41页 |
发表论文和参加科研情况说明 | 第41-43页 |
致谢 | 第43页 |