移动机器人建图与路径规划方法研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-15页 |
1.1 课题来源及研究目的和意义 | 第9-10页 |
1.1.1 课题的来源 | 第9页 |
1.1.2 课题研究的背景和意义 | 第9-10页 |
1.2 国内外研究现状与分析 | 第10-14页 |
1.2.1 建图技术研究现状与分析 | 第10-12页 |
1.2.2 路径规划技术研究现状与分析 | 第12-14页 |
1.3 主要研究内容 | 第14-15页 |
第2章 移动机器人导航系统构建 | 第15-27页 |
2.1 引言 | 第15页 |
2.2 移动机器人导航控制系统设计 | 第15-18页 |
2.2.1 导航系统总体结构 | 第15-16页 |
2.2.2 移动机器人导航功能配置 | 第16-17页 |
2.2.3 决策系统与执行系统通讯设计 | 第17-18页 |
2.3 激光点云优化处理 | 第18-21页 |
2.4 基于Qt的人机交互设计 | 第21-26页 |
2.4.1 远程人机交互客户端设计 | 第21-24页 |
2.4.2 远程人机交互的实现 | 第24-26页 |
2.5 本章小结 | 第26-27页 |
第3章 基于构建子图的移动机器人建图方法研究 | 第27-44页 |
3.1 引言 | 第27页 |
3.2 建图方法设计 | 第27-28页 |
3.3 基于启发式搜索定位的子图构建 | 第28-37页 |
3.3.1 启发式搜索定位算法 | 第28-34页 |
3.3.2 概率栅格地图更新 | 第34-37页 |
3.4 子图快速筛选算法 | 第37-43页 |
3.5 本章小结 | 第43-44页 |
第4章 动态环境的强化学习路径规划方法研究 | 第44-63页 |
4.1 引言 | 第44页 |
4.2 基于代价地图的强化学习方法构建 | 第44-53页 |
4.2.1 全局路径的引入 | 第45-47页 |
4.2.2 环境模型的建立 | 第47-49页 |
4.2.3 动作空间定义 | 第49-51页 |
4.2.4 奖赏函数与值函数的设计 | 第51-53页 |
4.3 路径规划学习策略 | 第53-56页 |
4.3.1 Q学习训练算法 | 第53-55页 |
4.3.2 强化学习策略 | 第55-56页 |
4.4 仿真验证 | 第56-62页 |
4.4.1 仿真场景 | 第56页 |
4.4.2 训练阶段仿真 | 第56-59页 |
4.4.3 测试阶段仿真 | 第59-62页 |
4.5 本章小结 | 第62-63页 |
第5章 实验研究 | 第63-81页 |
5.1 引言 | 第63页 |
5.2 实验平台搭建 | 第63-65页 |
5.2.1 Gazebo环境实验平台 | 第63-64页 |
5.2.2 实体实验平台 | 第64-65页 |
5.3 基于构建子图的建图方法实验 | 第65-72页 |
5.3.1 建图实验 | 第65-70页 |
5.3.2 对比实验研究 | 第70-72页 |
5.4 基于强化学习路径规划算法实验 | 第72-80页 |
5.4.1 Gazebo环境实验 | 第73-76页 |
5.4.2 真实环境中实验 | 第76-80页 |
5.5 本章小结 | 第80-81页 |
结论 | 第81-82页 |
参考文献 | 第82-86页 |
攻读学位期间发表的学术论文 | 第86-88页 |
致谢 | 第88页 |