| 致谢 | 第1-6页 |
| 中文摘要 | 第6-7页 |
| ABSTRACT | 第7-9页 |
| 序 | 第9-13页 |
| 1 综述 | 第13-23页 |
| ·选题意义及研究背景 | 第13-14页 |
| ·移动机器人的研究概况 | 第14-15页 |
| ·移动机器人的发展历史 | 第14页 |
| ·国际移动机器人的发展 | 第14-15页 |
| ·国内移动机器人的发展 | 第15页 |
| ·双目立体视觉的研究概况 | 第15-20页 |
| ·国内外研究现状 | 第15-16页 |
| ·现阶段研究目标 | 第16-17页 |
| ·双目立体视觉的研究内容 | 第17-19页 |
| ·双目立体视觉的应用领域 | 第19-20页 |
| ·双目立体视觉的发展方向 | 第20页 |
| ·本论文的主要重点及结构安排 | 第20-23页 |
| ·本论文的主要重点 | 第20-21页 |
| ·本论文的结构安排 | 第21-23页 |
| 2 摄像机标定 | 第23-43页 |
| ·摄像机模型 | 第23-28页 |
| ·图像坐标系、摄像机坐标系与世界坐标系 | 第23-25页 |
| ·摄像机线性模型 | 第25-26页 |
| ·摄像机非线性模型 | 第26-28页 |
| ·线性模型摄像机标定 | 第28-31页 |
| ·Zhang摄像机平面标定两步法 | 第31-35页 |
| ·摄像机内外参数求解 | 第31-34页 |
| ·畸变的处理 | 第34-35页 |
| ·对Zhang摄像机标定方法的改进 | 第35-38页 |
| ·世界坐标系转化为机器人坐标系 | 第35-36页 |
| ·基于云台转角的外参数估计 | 第36-38页 |
| ·实验结果 | 第38-42页 |
| ·本章小结 | 第42-43页 |
| 3 图像分割与目标识别 | 第43-63页 |
| ·图像分割 | 第43-50页 |
| ·RGB颜色空间与HSV颜色空间 | 第44-45页 |
| ·RGB颜色空间与HSV颜色空间之间的转换 | 第45-47页 |
| ·HSV颜色空间中的颜色相似度 | 第47页 |
| ·基于颜色相似度的阈值分割 | 第47-48页 |
| ·连通区域标记 | 第48-49页 |
| ·形态学处理 | 第49-50页 |
| ·目标识别 | 第50-55页 |
| ·Shape Contexts算法 | 第50-53页 |
| ·对Shape Contexts算法的改进——DSCE | 第53-54页 |
| ·目标识别结果标记 | 第54-55页 |
| ·实验结果 | 第55-61页 |
| ·图像分割结果 | 第55-57页 |
| ·目标识别结果 | 第57-61页 |
| ·本章小结 | 第61-63页 |
| 4 双目立体视觉的三维重建 | 第63-73页 |
| ·三维重建原理 | 第63-65页 |
| ·三维重建的一般方法 | 第65-67页 |
| ·重建模型 | 第65-66页 |
| ·重建方法 | 第66-67页 |
| ·重建精度分析 | 第67页 |
| ·实验结果 | 第67-71页 |
| ·本章小结 | 第71-73页 |
| 5 双目立体视觉系统的实现 | 第73-91页 |
| ·机器人AS-R系统结构 | 第73-78页 |
| ·视频采集模块与云台控制模块 | 第74-75页 |
| ·运动控制模块 | 第75-76页 |
| ·手臂控制模块 | 第76-78页 |
| ·双目立体视觉系统的设计与实现 | 第78-84页 |
| ·系统框架 | 第78-80页 |
| ·实验场景设计与实现 | 第80-84页 |
| ·实验结果 | 第84-90页 |
| ·系统主界面 | 第84-85页 |
| ·实际实验结果 | 第85-90页 |
| ·本章小结 | 第90-91页 |
| 6 总结与展望 | 第91-93页 |
| ·论文总结 | 第91页 |
| ·工作展望 | 第91-93页 |
| 参考文献 | 第93-95页 |
| 作者简历 | 第95-99页 |
| 学位论文数据集 | 第99页 |