摘要 | 第4-5页 |
Abstract | 第5页 |
目录 | 第6-8页 |
第1章 绪论 | 第8-18页 |
1.1 课题的研究背景 | 第8-10页 |
1.2 移动机器人领域 SLAM 研究现状 | 第10-15页 |
1.2.1 基于 KF 的 SLAM 算法 | 第10-12页 |
1.2.2 基于 IF 的 SLAM 算法 | 第12页 |
1.2.3 基于 PF 的 SLAM 算法 | 第12-14页 |
1.2.4 立体视觉 SLAM 研究现状 | 第14-15页 |
1.3 机器人地图表示方法 | 第15-17页 |
1.3.1 栅格环境地图表示方法 | 第15-16页 |
1.3.2 几何环境地图表示方法 | 第16页 |
1.3.3 拓扑环境地图表示方法 | 第16页 |
1.3.4 混合环境地图表示方法 | 第16-17页 |
1.4 本文的主要内容 | 第17-18页 |
第2章 立体视觉模型与仿真实验平台 | 第18-27页 |
2.1 引言 | 第18页 |
2.2 Kinect 3D 相机原理介绍 | 第18-23页 |
2.2.1 Kinect 获取深度图像的原理介绍 | 第18-21页 |
2.2.2 相机的坐标变换 | 第21-23页 |
2.3 Robotic Operating System 及其仿真环境介绍 | 第23-25页 |
2.3.1 ROS 的目标和特点 | 第23-24页 |
2.3.2 ROS 的系统结构 | 第24-25页 |
2.4 Gazebo 仿真模拟环境 | 第25-26页 |
2.5 本章小结 | 第26-27页 |
第3章 基于立体视觉虚拟激光测距仪 | 第27-35页 |
3.1 引言 | 第27页 |
3.2 基于立体视觉虚拟激光测距仪的传统方法 | 第27-28页 |
3.3 基于立体视觉虚拟激光测距仪的改进方法 | 第28-31页 |
3.3.1 基于立体视觉改进的虚拟激光测距仪原理 | 第28-29页 |
3.3.2 基于立体视觉改进的虚拟激光测距仪实现方法 | 第29-31页 |
3.4 基于立体视觉虚拟激光测距仪改进方法实验 | 第31-34页 |
3.4.1 实验环境 | 第31页 |
3.4.2 基于立体视觉改进的虚拟激光测距仪实验过程 | 第31-33页 |
3.4.3 基于立体视觉改进的虚拟激光测距仪方法与传统方法的比较 | 第33-34页 |
3.5 实验结论 | 第34页 |
3.6 本章小结 | 第34-35页 |
第4章 基于粒子滤波的 SLAM 算法及其改进 | 第35-60页 |
4.1 引言 | 第35页 |
4.2 粒子滤波器理论介绍 | 第35-39页 |
4.3 使用粒子滤波器的 SLAM 方法 | 第39-45页 |
4.3.1 基于粒子滤波的机器人定位方法 | 第40-42页 |
4.3.2 基于概率表示的机器人地图创建和更新方法 | 第42-44页 |
4.3.3 激光测距仪传感器模型 | 第44-45页 |
4.4 改进的 Rao-Blackwellized 粒子滤波器算法 | 第45-52页 |
4.4.1 改进提议分布,减少粒子数量 | 第46-48页 |
4.4.2 改进的重采样步骤 | 第48-52页 |
4.5 改进的粒子滤波器算法实验 | 第52-59页 |
4.5.1 实验环境介绍 | 第52页 |
4.5.2 实验中采用的系统结构 | 第52-55页 |
4.5.3 模拟实验环境布置以及使用的机器人 | 第55-56页 |
4.5.4 模拟实验中某一时刻 RVIZ 中的可视化数据 | 第56-58页 |
4.5.5 模拟实验中机器人创建的环境地图 | 第58-59页 |
4.6 本章小结 | 第59-60页 |
总结与展望 | 第60-61页 |
参考文献 | 第61-65页 |
致谢 | 第65页 |