| 第一章 绪论 | 第1-15页 |
| §1-1 引言 | 第8页 |
| §1-2 机器人视觉技术研究现状 | 第8-13页 |
| 1-2-1 机器人视觉的发展 | 第8-10页 |
| 1-2-2 机器人的三维视觉信息获取方法 | 第10-11页 |
| 1-2-3 立体视觉方法研究 | 第11-13页 |
| §1-3 移动机器人发展现状 | 第13-14页 |
| 1-3-1 国外移动机器人的发展概况 | 第13页 |
| 1-3-2 国内移动机器人的发展概况 | 第13-14页 |
| §1-4 选题意义及本文的主要研究内容 | 第14-15页 |
| 第二章 HEBUT-Ⅰ型移动机器人的结构及驱动系统 | 第15-23页 |
| §2-1 HEBUT-Ⅰ型移动机器人的结构 | 第15-16页 |
| 2-1-1 HEBUT-Ⅰ型移动机器人的车体结构 | 第15页 |
| 2-1-2 HEBUT-Ⅰ型移动机器人的硬件体系结构 | 第15-16页 |
| §2-2 HEBUT-Ⅰ型移动机器人的驱动系统及运动学原理 | 第16-20页 |
| 2-2-1 HEBUT-Ⅰ型移动机器人的驱动系统 | 第16-18页 |
| 2-2-2 HEBUT-Ⅰ型移动机器人的运动学原理 | 第18-20页 |
| §2-3 HEBUT-Ⅰ型移动机器人的视觉系统 | 第20-22页 |
| 2-3-1 HEBUT-Ⅰ型移动机器人的立体视觉系统 | 第20页 |
| 2-3-2 HEBUT-Ⅰ型移动机器人的立体视觉系统中的坐标关系 | 第20-22页 |
| §2-4 本章小结 | 第22-23页 |
| 第三章 立体视觉模型 | 第23-36页 |
| §3-1 引言 | 第23页 |
| §3-2 一般双目视觉模型分析 | 第23-30页 |
| 3-2-1 摄像机模型 | 第23-26页 |
| 3-2-2 双目视差深度信息获取的一般原理 | 第26-27页 |
| 3-2-3 一般立体视觉模型 | 第27-30页 |
| §3-3 摄像机横向配置的立体视觉模型 | 第30-33页 |
| 3-3-1 摄像机横向配置立体视觉模型 | 第30页 |
| 3-3-2 模型的可视范围 | 第30-32页 |
| 3-3-3 模型的误差分析 | 第32-33页 |
| §3-4 摄像机配准误差分析 | 第33-35页 |
| 3-4-1 摄像机配准误差分析 | 第33-35页 |
| §3-5 本章小结 | 第35-36页 |
| 第四章 摄像机标定 | 第36-48页 |
| §4-1 引言 | 第36页 |
| §4-2 常见的摄像机标定方法 | 第36-40页 |
| 4-2-1 传统摄像机标定方法 | 第36-38页 |
| 4-2-2 摄像机自标定方法 | 第38-40页 |
| 4-2-3 其它的摄像机标定方法 | 第40页 |
| §4-3 CCD摄像机的一种快速标定方法 | 第40-45页 |
| 4-3-1 小孔摄像机模型 | 第40-42页 |
| 4-3-2 需要标定的摄像机内外参数 | 第42-45页 |
| §4-4 标定实验 | 第45-47页 |
| 4-4-1 实验环境的建立 | 第45-46页 |
| 4-4-2 实验结果 | 第46-47页 |
| §4-5 本章小结 | 第47-48页 |
| 第五章 立体匹配与视觉定位 | 第48-60页 |
| §5-1 引言 | 第48页 |
| §5-2 立体匹配 | 第48-52页 |
| 5-2-1 立体匹配的内容 | 第48-50页 |
| 5-2-2 立体匹配的方法 | 第50-52页 |
| §5-3 三维重建 | 第52-55页 |
| 5-3-1 空间点的三维重建 | 第52-54页 |
| 5-3-2 空间直线和曲线的三维重建 | 第54-55页 |
| §5-4 视觉定位算法的实现 | 第55-58页 |
| 5-4-1 图象边缘检测方法 | 第55-57页 |
| 5-4-2 视觉识别算法 | 第57-58页 |
| §5-5 视觉定位实验 | 第58-60页 |
| 5-4-1 视觉定位实验 | 第58-59页 |
| §5-5 本章小结 | 第59-60页 |
| 第六章 结论 | 第60-61页 |
| 参考文献 | 第61-65页 |
| 致谢 | 第65-66页 |
| 攻读硕士学位期间发表的论文和参加的科研课题 | 第66页 |