摘 要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-13页 |
1.1 研究背景 | 第9-11页 |
1.2 研究内容 | 第11-13页 |
第2章 相关工作 | 第13-17页 |
2.1 VISUAL SLAM | 第13页 |
2.2 RGB-D SLAM | 第13-15页 |
2.3 ICP | 第15页 |
2.4 本文工作 | 第15-17页 |
第3章 基于 KINECT 深度信息的仿生视觉模型 | 第17-27页 |
3.1 KINECT 特征介绍 | 第17-19页 |
3.2 KINECT 的工作原理 | 第19-22页 |
3.2.1 深度相机坐标原理 | 第19-21页 |
3.2.2 Kinect 三维坐标测量原理 | 第21-22页 |
3.3 KINECT 有效深度范围 | 第22-23页 |
3.4 RGB-D ICP | 第23-24页 |
3.4.1 RGB-D SLAM 算法 | 第23页 |
3.4.2 点云匹配 ICP | 第23-24页 |
3.5 基于深度信息的仿生视觉模型 | 第24-25页 |
3.6 基于生物视距原理的模型提出 | 第25-26页 |
3.7 本章小结 | 第26-27页 |
第4章 IMU-KINECT 融合与定位 | 第27-38页 |
4.1 IMU 惯性测量单元 | 第27-29页 |
4.1.1 IMU 惯性导航系统 | 第27-28页 |
4.1.2 IMU 惯性导航工作原理 | 第28-29页 |
4.2 IMU 增强型的 RGB-D SLAM 系统架构 | 第29-35页 |
4.2.1 IMU 传感器 | 第30-31页 |
4.2.2 全向机器人运动学模型 | 第31-32页 |
4.2.3 融合 IMU-Kinect 传感器的视觉里程计 | 第32-35页 |
4.3 IMU 增强型的 RGB-D SLAM 算法 | 第35-37页 |
4.3.1 扩展卡尔曼滤波器 | 第35-36页 |
4.3.2 机器人运动控制 | 第36-37页 |
4.3.3 采样频率调整 | 第37页 |
4.4 本章小结 | 第37-38页 |
第5章 仿生视觉模型的算法的设计与实验 | 第38-48页 |
5.1 实验平台 | 第38页 |
5.2 静态两帧点云匹配 | 第38-41页 |
5.3 横向动态扫描匹配 | 第41-45页 |
5.4 机器人在行进过程中的扫描测试 | 第45-46页 |
5.5 三维全局图扫描 | 第46-47页 |
5.6 本章小结 | 第47-48页 |
第6章 总结与展望 | 第48-50页 |
6.1 论文工作的总结 | 第48页 |
6.2 存在的问题与展望 | 第48-50页 |
参考文献 | 第50-55页 |
致谢 | 第55-56页 |
附录 A 攻读学位期间发表的论文目录 | 第56-57页 |
附录 B 攻读硕士学位期间参加的科研项目 | 第57-58页 |
详细摘要 | 第58-61页 |