Q-learning研究及其在AUV局部路径规划中的应用
| 第1章 绪论 | 第1-17页 |
| ·水下机器人概述 | 第10-11页 |
| ·移动机器人路径规划 | 第11-13页 |
| ·路径规划问题的分类 | 第11页 |
| ·常用路径规划方法介绍 | 第11-12页 |
| ·墙角问题的解决方法 | 第12-13页 |
| ·水下机器人局部路径规划 | 第13-14页 |
| ·强化学习理论的典型算法及研究进展 | 第14-15页 |
| ·本文所做的工作 | 第15-17页 |
| 第2章 强化学习的基本理论 | 第17-25页 |
| ·学习的分类 | 第17-18页 |
| ·强化学习的定义及分类 | 第18-20页 |
| ·强化学习的定义 | 第18-19页 |
| ·强化学习的特点 | 第19页 |
| ·强化学习的分类 | 第19-20页 |
| ·强化学习系统的结构模型 | 第20-21页 |
| ·输入模块的实现方法 | 第21-22页 |
| ·BOX结构方法 | 第22页 |
| ·模糊方法 | 第22页 |
| ·神经网络方法 | 第22页 |
| ·强化学习的目标和强化模块的实现方法 | 第22-23页 |
| ·动作选择模块的实现 | 第23-24页 |
| ·本章小结 | 第24-25页 |
| 第3章 Q-学习及算法的改进 | 第25-39页 |
| ·马尔科夫决策过程 | 第25-26页 |
| ·马尔科夫性质 | 第25-26页 |
| ·马尔科夫决策问题的求解 | 第26页 |
| ·Q-学习的基本算法 | 第26-31页 |
| ·Q-学习的收敛性 | 第27-28页 |
| ·Q-学习神经网络实现的结构 | 第28-29页 |
| ·采用神经网络实现Q-学习算法 | 第29-31页 |
| ·Q-学习算法的改进 | 第31-37页 |
| ·Q(λ)算法 | 第32-34页 |
| ·SARSA(0)算法 | 第34-36页 |
| ·在策略和离策略算法 | 第34-35页 |
| ·SARSA(0)算法的收敛性 | 第35-36页 |
| ·SARSA(λ)算法 | 第36-37页 |
| ·连续动作的强化学习 | 第37-38页 |
| ·本章小结 | 第38-39页 |
| 第4章 基于CMAC的Q-学习算法 | 第39-45页 |
| ·CMAC神经网络的结构及基本原理 | 第39-40页 |
| ·CMAC神经网络的结构 | 第39-40页 |
| ·CMAC输出层权值的学习方法 | 第40页 |
| ·CMAC中神经元数目的确定 | 第40-42页 |
| ·CMAC中虚拟层神经元的地址编码 | 第42-43页 |
| ·基于CMAC的强化学习算法 | 第43-44页 |
| ·本章小结 | 第44-45页 |
| 第5章 基于强化学习的AUV局部路径规划 | 第45-53页 |
| ·引言 | 第45页 |
| ·环境信息的获取 | 第45-47页 |
| ·传感器的配置及障碍物的探测 | 第46页 |
| ·水下机器人在某一时刻的状态描述 | 第46-47页 |
| ·输入输出变量的选取 | 第47-48页 |
| ·输入状态变量的选取 | 第47-48页 |
| ·输出状态变量的选取 | 第48页 |
| ·即时报酬的选取 | 第48-49页 |
| ·动作选择 | 第49页 |
| ·基于强化学习的AUV局部路径规划方法 | 第49-52页 |
| ·本章小结 | 第52-53页 |
| 第6章 仿真实验 | 第53-66页 |
| ·仿真软件的总体介绍 | 第53-54页 |
| ·路径规划网络(网络1)的仿真实现 | 第54-58页 |
| ·网络1的流程图 | 第54-55页 |
| ·仿真结果及分析 | 第55-58页 |
| ·沿墙壁行走网络(网络2)的仿真实现 | 第58-59页 |
| ·复杂环境下水下机器人的路径规划仿真实验 | 第59-63页 |
| ·程序流程图 | 第59-60页 |
| ·实验结果 | 第60-63页 |
| ·强化学习与模糊控制方法在自适应性方面的比较 | 第63-65页 |
| ·本章小结 | 第65-66页 |
| 结论 | 第66-68页 |
| 参考文献 | 第68-72页 |
| 攻读硕士学位期间发表的论文和取得的科研成果 | 第72-73页 |
| 致谢 | 第73页 |