第一章 绪论 | 第1-15页 |
§1-1 引言 | 第8页 |
§1-2 机器人视觉技术研究现状 | 第8-13页 |
1-2-1 机器人视觉的发展 | 第8-10页 |
1-2-2 机器人的三维视觉信息获取方法 | 第10-11页 |
1-2-3 立体视觉方法研究 | 第11-13页 |
§1-3 移动机器人发展现状 | 第13-14页 |
1-3-1 国外移动机器人的发展概况 | 第13页 |
1-3-2 国内移动机器人的发展概况 | 第13-14页 |
§1-4 选题意义及本文的主要研究内容 | 第14-15页 |
第二章 HEBUT-Ⅰ型移动机器人的结构及驱动系统 | 第15-23页 |
§2-1 HEBUT-Ⅰ型移动机器人的结构 | 第15-16页 |
2-1-1 HEBUT-Ⅰ型移动机器人的车体结构 | 第15页 |
2-1-2 HEBUT-Ⅰ型移动机器人的硬件体系结构 | 第15-16页 |
§2-2 HEBUT-Ⅰ型移动机器人的驱动系统及运动学原理 | 第16-20页 |
2-2-1 HEBUT-Ⅰ型移动机器人的驱动系统 | 第16-18页 |
2-2-2 HEBUT-Ⅰ型移动机器人的运动学原理 | 第18-20页 |
§2-3 HEBUT-Ⅰ型移动机器人的视觉系统 | 第20-22页 |
2-3-1 HEBUT-Ⅰ型移动机器人的立体视觉系统 | 第20页 |
2-3-2 HEBUT-Ⅰ型移动机器人的立体视觉系统中的坐标关系 | 第20-22页 |
§2-4 本章小结 | 第22-23页 |
第三章 立体视觉模型 | 第23-36页 |
§3-1 引言 | 第23页 |
§3-2 一般双目视觉模型分析 | 第23-30页 |
3-2-1 摄像机模型 | 第23-26页 |
3-2-2 双目视差深度信息获取的一般原理 | 第26-27页 |
3-2-3 一般立体视觉模型 | 第27-30页 |
§3-3 摄像机横向配置的立体视觉模型 | 第30-33页 |
3-3-1 摄像机横向配置立体视觉模型 | 第30页 |
3-3-2 模型的可视范围 | 第30-32页 |
3-3-3 模型的误差分析 | 第32-33页 |
§3-4 摄像机配准误差分析 | 第33-35页 |
3-4-1 摄像机配准误差分析 | 第33-35页 |
§3-5 本章小结 | 第35-36页 |
第四章 摄像机标定 | 第36-48页 |
§4-1 引言 | 第36页 |
§4-2 常见的摄像机标定方法 | 第36-40页 |
4-2-1 传统摄像机标定方法 | 第36-38页 |
4-2-2 摄像机自标定方法 | 第38-40页 |
4-2-3 其它的摄像机标定方法 | 第40页 |
§4-3 CCD摄像机的一种快速标定方法 | 第40-45页 |
4-3-1 小孔摄像机模型 | 第40-42页 |
4-3-2 需要标定的摄像机内外参数 | 第42-45页 |
§4-4 标定实验 | 第45-47页 |
4-4-1 实验环境的建立 | 第45-46页 |
4-4-2 实验结果 | 第46-47页 |
§4-5 本章小结 | 第47-48页 |
第五章 立体匹配与视觉定位 | 第48-60页 |
§5-1 引言 | 第48页 |
§5-2 立体匹配 | 第48-52页 |
5-2-1 立体匹配的内容 | 第48-50页 |
5-2-2 立体匹配的方法 | 第50-52页 |
§5-3 三维重建 | 第52-55页 |
5-3-1 空间点的三维重建 | 第52-54页 |
5-3-2 空间直线和曲线的三维重建 | 第54-55页 |
§5-4 视觉定位算法的实现 | 第55-58页 |
5-4-1 图象边缘检测方法 | 第55-57页 |
5-4-2 视觉识别算法 | 第57-58页 |
§5-5 视觉定位实验 | 第58-60页 |
5-4-1 视觉定位实验 | 第58-59页 |
§5-5 本章小结 | 第59-60页 |
第六章 结论 | 第60-61页 |
参考文献 | 第61-65页 |
致谢 | 第65-66页 |
攻读硕士学位期间发表的论文和参加的科研课题 | 第66页 |