摘要 | 第1-5页 |
ABSTRACT | 第5-8页 |
第一章 绪论 | 第8-15页 |
§1-1 引言 | 第8页 |
§1-2 国内外移动机器人研究现状 | 第8-9页 |
§1-3 移动机器人的关键技术 | 第9-11页 |
§1-4 移动机器人视觉导航定位技术 | 第11-12页 |
§1-5 多传感器信息融合概述 | 第12-13页 |
§1-6 选题意义及本文的主要内容 | 第13-15页 |
第二章 HEBUT-Ⅱ型移动机器人的结构及各种传感器概述 | 第15-22页 |
§2-1 HEBUT-Ⅱ型移动机器人的车体结构 | 第15-16页 |
§2-2 HEBUT-Ⅱ型移动机器人声纳系统 | 第16-18页 |
§2-3 HEBUT-Ⅱ型移动机器人视觉系统 | 第18-21页 |
2-3-1 移动机器人视觉系统 | 第18-19页 |
2-3-2 视觉系统的硬件结构 | 第19-20页 |
2-3-3 视觉系统的软件结构 | 第20-21页 |
§2-4 本章小节 | 第21-22页 |
第三章 视觉处理的方法及实现 | 第22-46页 |
§3-1 引言 | 第22页 |
§3-2 摄像机模型及透视技术 | 第22-28页 |
3-2-1 世界坐标与摄像机坐标重合时的摄像机模型 | 第23-24页 |
3-2-2 世界坐标与摄像机坐标分开时的摄像机模型 | 第24-26页 |
3-2-3 HEBUT-Ⅱ型移动机器人的摄像机模型 | 第26-28页 |
§3-3 摄像机逆透视映射 | 第28-32页 |
3-3-1 摄像机逆透视映射基本原理及算法 | 第28-30页 |
3-3-2 HEBUT-Ⅱ型移动机器人的逆模型运算 | 第30-32页 |
§3-4 图像预处理 | 第32-38页 |
3-4-1 图像平滑 | 第32-35页 |
3-4-2 图象锐化 | 第35-38页 |
§3-5 图像分割 | 第38-42页 |
3-5-1 边缘提取 | 第39-41页 |
3-5-2 阈值分割 | 第41-42页 |
§3-6 图像匹配 | 第42-45页 |
§3-7 本章小结 | 第45-46页 |
第四章 视觉传感器与超声波传感器融合定位技术 | 第46-57页 |
§4-1 基于视觉的移动机器人定位导航 | 第46-48页 |
4-1-1 视觉定位导航系统体系结构 | 第46-47页 |
4-1-2 视觉导航的图像处理 | 第47-48页 |
§4-2 EKF 方法与 Markvo 方法融合基本原理 | 第48-50页 |
4-2-1 EKF 方法与 Markvo 方法基本特点 | 第48-49页 |
4-2-2 融合基本原理 | 第49-50页 |
§4-3 EKF 方法与 Markvo 方法融合算法 | 第50-56页 |
4-3-1 融合流程 | 第50-54页 |
4-3-2 实验验证 | 第54页 |
4-3-3 全局定位 | 第54-56页 |
§4-4 本章小结 | 第56-57页 |
第五章 总结与展望 | 第57-58页 |
参考文献 | 第58-60页 |
致谢 | 第60-61页 |
攻读学位期间所取得的科研成果 | 第61页 |