移动机器人视觉导航系统关键技术研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-19页 |
1.1 研究现状及关键技术 | 第10-15页 |
1.1.1 机器人视觉技术 | 第10-12页 |
1.1.2 机器人导航技术 | 第12-14页 |
1.1.3 机器人视觉导航的关键技术 | 第14-15页 |
1.2 移动机器人的双目视觉导航技术 | 第15-17页 |
1.3 论文的主要研究工作 | 第17-19页 |
第二章 摄像机标定 | 第19-33页 |
2.1 视觉基本工作原理 | 第20-21页 |
2.2 摄像机标定方法 | 第21-26页 |
2.2.1 传统标定方法 | 第21-24页 |
2.2.2 自标定方法 | 第24-26页 |
2.3 摄像机标定原理 | 第26-30页 |
2.3.1 摄像机模型中的坐标系 | 第26-28页 |
2.3.2 摄像机模型 | 第28-30页 |
2.4 实验结果与分析 | 第30-31页 |
2.5 小结 | 第31-33页 |
第三章 图像配准技术 | 第33-42页 |
3.1 特征提取 | 第33-36页 |
3.1.1 Harris算子 | 第33-34页 |
3.1.2 Susan算子 | 第34-35页 |
3.1.3 快速角点检测 | 第35-36页 |
3.2 图像配准 | 第36-41页 |
3.2.1 模板匹配简介 | 第36-37页 |
3.2.2 特征匹配简介 | 第37页 |
3.2.3 改进的角点特征的立体匹配算法 | 第37-41页 |
3.2.4 算法分析 | 第41页 |
3.3 小结 | 第41-42页 |
第四章 目标识别及路径规划 | 第42-66页 |
4.1 图像分割 | 第42-51页 |
4.1.1 阈值分割 | 第42-43页 |
4.1.2 边缘检测 | 第43-46页 |
4.1.3 基于改进的颜色查找表的快速分割方法 | 第46-50页 |
4.1.4 实验与分析 | 第50-51页 |
4.2 目标识别 | 第51-59页 |
4.2.1 图像目标识别的概述 | 第51页 |
4.2.2 图像场景中物体的识别 | 第51-55页 |
4.2.3 形态学的区域颗粒分析 | 第55-56页 |
4.2.4 实验与分析 | 第56-59页 |
4.3 目标定位 | 第59-60页 |
4.4 路径规划 | 第60-65页 |
4.4.1 移动机器人路径规划的算法研究 | 第60-61页 |
4.4.2 改进的路径规划算法 | 第61-63页 |
4.4.3 实验与结果分析 | 第63-65页 |
4.5 小结 | 第65-66页 |
第五章 双目视觉导航系统的实现 | 第66-77页 |
5.1 机器人平台 | 第66-67页 |
5.1.1 智能风暴机器人介绍 | 第66-67页 |
5.1.2 智能风暴机器人的基本功能 | 第67页 |
5.1.3 智能风暴机器人的特点及应用 | 第67页 |
5.2 视觉系统硬件结构 | 第67-70页 |
5.3 视觉系统软件架构 | 第70-76页 |
5.4 小结 | 第76-77页 |
第六章 结论 | 第77-78页 |
致谢 | 第78-79页 |
参考文献 | 第79-82页 |