移动机器人视觉导航系统研究
| 致谢 | 第1-6页 |
| 中文摘要 | 第6-7页 |
| ABSTRACT | 第7-8页 |
| 序 | 第8-12页 |
| 1 综述 | 第12-33页 |
| ·研究背景及意义 | 第12-14页 |
| ·移动机器人概述 | 第14-21页 |
| ·机器人的发展历史 | 第14-16页 |
| ·移动机器人的发展历史 | 第16-17页 |
| ·移动机器人的结构 | 第17-18页 |
| ·移动机器人的研究内容 | 第18-21页 |
| ·计算机视觉概述 | 第21-23页 |
| ·计算机视觉的发展 | 第21-22页 |
| ·Marr的计算机视觉理论 | 第22-23页 |
| ·移动机器人视觉定位导航 | 第23-30页 |
| ·视觉定位技术发展 | 第24-29页 |
| ·视觉导航技术发展 | 第29-30页 |
| ·论文的研究工作 | 第30-33页 |
| ·视觉定位导航难点及可行性分析 | 第30-31页 |
| ·论文的主要切入点 | 第31页 |
| ·论文的主要思路及实现方案 | 第31-33页 |
| 2 空间变换及摄像机标定 | 第33-61页 |
| ·空间变换 | 第33-34页 |
| ·光学系统 | 第34-39页 |
| ·摄像机模型 | 第39-45页 |
| ·线性摄像机成像模型 | 第40-43页 |
| ·非线性摄像机成像模型 | 第43-45页 |
| ·摄像机光学成像过程 | 第45-46页 |
| ·摄像机标定算法 | 第46-50页 |
| ·摄像机标定方法分类 | 第47页 |
| ·摄像机标定算法 | 第47-50页 |
| ·张正友的平面标定算法 | 第50-60页 |
| ·张正友算法描述 | 第50-52页 |
| ·离线离散标定技术 | 第52-54页 |
| ·实验环境 | 第54-56页 |
| ·实验结果及分析 | 第56-60页 |
| ·本章小结 | 第60-61页 |
| 3 彩色物体识别 | 第61-82页 |
| ·彩色物体识别复杂度 | 第61页 |
| ·基于颜色特征的物体识别方法 | 第61-71页 |
| ·彩色模型 | 第61-65页 |
| ·传统的彩色图像分割方法 | 第65-71页 |
| ·二值图像分析方法 | 第71-74页 |
| ·连通区域标记两阶段算法 | 第71-72页 |
| ·数学形态学运算 | 第72-74页 |
| ·改进的基于HSI模型的分割算法 | 第74-81页 |
| ·分割算法描述 | 第74-75页 |
| ·实验环境 | 第75-76页 |
| ·实验结果与分析 | 第76-81页 |
| ·本章小结 | 第81-82页 |
| 4 单目视觉测距 | 第82-104页 |
| ·传统的单目视觉测距方法 | 第82-83页 |
| ·单目视觉深度线索 | 第83-86页 |
| ·基于空间几何约束的单目视觉测距方法 | 第86-96页 |
| ·单目视觉测距模型的引出 | 第86-89页 |
| ·单目视觉测距模型 | 第89-91页 |
| ·单目视觉测距算法 | 第91-96页 |
| ·地平面约束测距算法的实验结果与分析 | 第96-102页 |
| ·实验环境 | 第96页 |
| ·摄像机参数标定 | 第96-97页 |
| ·测距结果 | 第97-100页 |
| ·实验结果分析 | 第100-102页 |
| ·平行平面测距算法的实验结果与分析 | 第102-103页 |
| ·本章小结 | 第103-104页 |
| 5 移动机器人视觉导航系统实现 | 第104-122页 |
| ·Marr的视觉系统理论 | 第104-106页 |
| ·Pioneer3-AT机器人平台简介 | 第106-113页 |
| ·Pioneer3-AT硬件结构 | 第107-109页 |
| ·Pioneer3-AT软件结构 | 第109-113页 |
| ·移动机器人视觉导航系统实现 | 第113-121页 |
| ·系统环境搭建 | 第113-114页 |
| ·系统框架 | 第114-115页 |
| ·系统的分块功能实现 | 第115-118页 |
| ·实验结果及分析 | 第118-119页 |
| ·系统性能 | 第119-120页 |
| ·系统界面及使用 | 第120-121页 |
| ·本章小结 | 第121-122页 |
| 6 总结与展望 | 第122-124页 |
| ·全文总结 | 第122-123页 |
| ·工作展望 | 第123-124页 |
| 参考文献 | 第124-128页 |
| 作者简历 | 第128-130页 |
| 学位论文数据集 | 第130页 |