基于强化学习的移动机器人路径规划研究
| 摘要 | 第1-7页 |
| Abstract | 第7-10页 |
| 第1章 绪论 | 第10-15页 |
| ·课题背景与意义 | 第10-11页 |
| ·移动机器人路径技术研究现状 | 第11-12页 |
| ·强化学习方法研究现状 | 第12-13页 |
| ·课题的主要工作与内容安排 | 第13-15页 |
| 第2章 强化学习理论及算法 | 第15-25页 |
| ·强化学习原理 | 第15-21页 |
| ·马尔可夫决策过程 | 第15-16页 |
| ·强化学习模型与基本要素 | 第16-18页 |
| ·强化学习的基本算法 | 第18-21页 |
| ·分层强化学习基本原理 | 第21-24页 |
| ·半马尔可夫决策过程 | 第21-22页 |
| ·分层强化学习的最优策略 | 第22页 |
| ·分层强化学习基本算法 | 第22-24页 |
| ·本章小结 | 第24-25页 |
| 第3章 基于近似动作空间模型的Q-学习算法 | 第25-36页 |
| ·动作选择策略的主要方法 | 第25-27页 |
| ·ε-greedy策略 | 第25页 |
| ·Boltzmann分布策略 | 第25-26页 |
| ·模拟退火策略 | 第26-27页 |
| ·基于近似动作模型策略选择的Q-学习算法 | 第27-28页 |
| ·仿真实验设计 | 第28-30页 |
| ·环境模型 | 第28-29页 |
| ·动作空间的表示 | 第29-30页 |
| ·奖赏函数的设计 | 第30页 |
| ·动作选择策略 | 第30页 |
| ·仿真结果与分析 | 第30-35页 |
| ·本章小结 | 第35-36页 |
| 第4章 基于分层强化学习的移动机器人路径规划 | 第36-46页 |
| ·分层强化学习结构设计 | 第36-37页 |
| ·移动机器人运动学模型 | 第37-38页 |
| ·环境信息的获取 | 第38-40页 |
| ·静态避障模块设计 | 第40-41页 |
| ·输入和输出状态空间设计 | 第40-41页 |
| ·奖赏函数的设计 | 第41页 |
| ·动作选择策略 | 第41页 |
| ·动态避障模块设计 | 第41-43页 |
| ·输入和输出状态空间设计 | 第41-42页 |
| ·奖赏函数的设计 | 第42-43页 |
| ·仿真实验及结果分析 | 第43-45页 |
| ·本章小结 | 第45-46页 |
| 第5章 移动机器人系统设计及路径规划实验 | 第46-58页 |
| ·机器人硬件平台 | 第46-47页 |
| ·Pioneer3-AT机器人 | 第46页 |
| ·激光扫描测距仪 | 第46-47页 |
| ·机器人软件框架ROS | 第47-49页 |
| ·ROS系统简介 | 第47-48页 |
| ·ROS系统结构 | 第48-49页 |
| ·基于ROS与Gazebo的机器人仿真 | 第49-52页 |
| ·Gazebo简介 | 第49-50页 |
| ·机器人仿真模型设计 | 第50-52页 |
| ·实验结果与分析 | 第52-57页 |
| ·三维仿真实验 | 第52-55页 |
| ·实物实验 | 第55-57页 |
| ·本章小结 | 第57-58页 |
| 总结与展望 | 第58-59页 |
| 致谢 | 第59-60页 |
| 参考文献 | 第60-64页 |
| 攻读硕士学位期间的论文及科研情况 | 第64页 |