面向全自主智能机器人的双目视觉技术研究
| 摘要 | 第4-5页 |
| ABSTRACT | 第5页 |
| 目录 | 第6-8页 |
| 第1章 绪论 | 第8-14页 |
| 1.1 课题背景 | 第8-9页 |
| 1.2 双目视觉的研究目的和意义 | 第9页 |
| 1.3 双目视觉研究现状及分析 | 第9-12页 |
| 1.3.1 摄像机标定研究现状 | 第10-11页 |
| 1.3.2 立体匹配技术研究现状 | 第11-12页 |
| 1.4 本文主要研究工作 | 第12-13页 |
| 1.5 本文的结构 | 第13-14页 |
| 第2章 相关原理与技术介绍 | 第14-26页 |
| 2.1 单目视觉技术 | 第14-16页 |
| 2.1.1 颜色空间 | 第14-15页 |
| 2.1.2 物体分割方法 | 第15-16页 |
| 2.2 双目成像模型及摄像机标定 | 第16-22页 |
| 2.2.1 摄像机模型与内外参数 | 第16-19页 |
| 2.2.2 标准摄像机标定方法 | 第19-22页 |
| 2.3 双目立体匹配方法 | 第22-25页 |
| 2.3.1 立体匹配约束原则 | 第22-23页 |
| 2.3.2 立体匹配方法 | 第23-25页 |
| 2.4 本章总结 | 第25-26页 |
| 第3章 单双目视觉性能分析及算法改进 | 第26-47页 |
| 3.1 单目视觉下的物体分割及距离测量 | 第26-32页 |
| 3.1.1 图像颜色空间的转换 | 第26-27页 |
| 3.1.2 简单场景下物体分割 | 第27-30页 |
| 3.1.3 简单场景下物体距离测量 | 第30-31页 |
| 3.1.4 复杂场景下物体分割 | 第31-32页 |
| 3.2 双目视觉下的物体分割及距离测量 | 第32-35页 |
| 3.2.1 双目成像及测距原理 | 第32-33页 |
| 3.2.2 复杂场景下双目视觉物体切割 | 第33-35页 |
| 3.2.3 双目视觉距离测量 | 第35页 |
| 3.3 已分割物体坐标计算及算法改进 | 第35-40页 |
| 3.3.1 基于质心的坐标计算方法 | 第36-37页 |
| 3.3.2 基于轮廓的坐标计算方法 | 第37-38页 |
| 3.3.3 基于三个方向搜索的高效坐标计算方法 | 第38-40页 |
| 3.4 基于质心不变性的高效立体匹配算法 | 第40-46页 |
| 3.4.1 立体匹配算法性能分析 | 第40-42页 |
| 3.4.2 图像质心不变性原理 | 第42-44页 |
| 3.4.3 算法描述与实现 | 第44-46页 |
| 3.5 本章总结 | 第46-47页 |
| 第4章 双目视觉系统设计及实验分析 | 第47-56页 |
| 4.1 搭建实验平台 | 第47页 |
| 4.2 双目视觉系统流程 | 第47-48页 |
| 4.3 摄像机标定 | 第48-51页 |
| 4.4 立体校正 | 第51-53页 |
| 4.5 立体匹配 | 第53-55页 |
| 4.6 本章小结 | 第55-56页 |
| 结论 | 第56-57页 |
| 参考文献 | 第57-63页 |
| 致谢 | 第63页 |