摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第9-16页 |
1.1 课题研究背景和意义 | 第9-10页 |
1.2 强化学习的研究现状 | 第10-12页 |
1.2.1 强化学习的算法研究 | 第10-11页 |
1.2.2 强化学习的应用 | 第11-12页 |
1.2.3 强化学习中的难点 | 第12页 |
1.3 自平衡车的研究现状 | 第12-15页 |
1.4 论文的主要研究内容 | 第15-16页 |
第2章 基于强化学习算法的控制 | 第16-28页 |
2.1 强化学习的基本原理 | 第16-20页 |
2.1.1 强化学习的基本要素 | 第16-18页 |
2.1.2 马尔可夫决策过程 | 第18页 |
2.1.3 动态规划求解 | 第18-20页 |
2.2 强化学习的常见算法 | 第20-21页 |
2.3 动作决策 | 第21-22页 |
2.4 仿真实验 | 第22-27页 |
2.4.1 建立仿真模型 | 第22-23页 |
2.4.2 算法实现 | 第23-25页 |
2.4.3 仿真结果 | 第25-27页 |
2.5 本章小结 | 第27-28页 |
第3章 值函数逼近 | 第28-38页 |
3.1 问题的提出和解决办法 | 第28-30页 |
3.2 基于BP神经网络的值函数逼近 | 第30-32页 |
3.2.1 BP神经网络基本概念 | 第30-31页 |
3.2.2 值函数逼近 | 第31页 |
3.2.3 随机梯度下降 | 第31-32页 |
3.3 基于BP神经网络的Q-learning算法 | 第32-34页 |
3.3.1 算法框架及原理 | 第33-34页 |
3.3.2 算法流程 | 第34页 |
3.4 仿真实验 | 第34-37页 |
3.5 本章小结 | 第37-38页 |
第4章 基于Actor-Critic框架的算法设计 | 第38-54页 |
4.1 Actor-Critic框架模型 | 第38-39页 |
4.2 连续状态和动作的实现 | 第39-42页 |
4.2.1 连续空间的Actor-Critic | 第39-40页 |
4.2.2 算法实现的原理 | 第40-41页 |
4.2.3 算法流程 | 第41-42页 |
4.3 平衡车的建模 | 第42-47页 |
4.3.1 运动学建模 | 第43-44页 |
4.3.2 拉格朗日法建模 | 第44-47页 |
4.4 仿真实验 | 第47-53页 |
4.4.1 状态转移及奖赏函数 | 第47-48页 |
4.4.2 仿真结果 | 第48-51页 |
4.4.3 与离散化方法的比较 | 第51-53页 |
4.5 本章小结 | 第53-54页 |
结论 | 第54-56页 |
参考文献 | 第56-60页 |
攻读硕士学位期间发表的论文及其它成果 | 第60-62页 |
致谢 | 第62页 |