面向全自主智能机器人的双目视觉技术研究
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
目录 | 第6-8页 |
第1章 绪论 | 第8-14页 |
1.1 课题背景 | 第8-9页 |
1.2 双目视觉的研究目的和意义 | 第9页 |
1.3 双目视觉研究现状及分析 | 第9-12页 |
1.3.1 摄像机标定研究现状 | 第10-11页 |
1.3.2 立体匹配技术研究现状 | 第11-12页 |
1.4 本文主要研究工作 | 第12-13页 |
1.5 本文的结构 | 第13-14页 |
第2章 相关原理与技术介绍 | 第14-26页 |
2.1 单目视觉技术 | 第14-16页 |
2.1.1 颜色空间 | 第14-15页 |
2.1.2 物体分割方法 | 第15-16页 |
2.2 双目成像模型及摄像机标定 | 第16-22页 |
2.2.1 摄像机模型与内外参数 | 第16-19页 |
2.2.2 标准摄像机标定方法 | 第19-22页 |
2.3 双目立体匹配方法 | 第22-25页 |
2.3.1 立体匹配约束原则 | 第22-23页 |
2.3.2 立体匹配方法 | 第23-25页 |
2.4 本章总结 | 第25-26页 |
第3章 单双目视觉性能分析及算法改进 | 第26-47页 |
3.1 单目视觉下的物体分割及距离测量 | 第26-32页 |
3.1.1 图像颜色空间的转换 | 第26-27页 |
3.1.2 简单场景下物体分割 | 第27-30页 |
3.1.3 简单场景下物体距离测量 | 第30-31页 |
3.1.4 复杂场景下物体分割 | 第31-32页 |
3.2 双目视觉下的物体分割及距离测量 | 第32-35页 |
3.2.1 双目成像及测距原理 | 第32-33页 |
3.2.2 复杂场景下双目视觉物体切割 | 第33-35页 |
3.2.3 双目视觉距离测量 | 第35页 |
3.3 已分割物体坐标计算及算法改进 | 第35-40页 |
3.3.1 基于质心的坐标计算方法 | 第36-37页 |
3.3.2 基于轮廓的坐标计算方法 | 第37-38页 |
3.3.3 基于三个方向搜索的高效坐标计算方法 | 第38-40页 |
3.4 基于质心不变性的高效立体匹配算法 | 第40-46页 |
3.4.1 立体匹配算法性能分析 | 第40-42页 |
3.4.2 图像质心不变性原理 | 第42-44页 |
3.4.3 算法描述与实现 | 第44-46页 |
3.5 本章总结 | 第46-47页 |
第4章 双目视觉系统设计及实验分析 | 第47-56页 |
4.1 搭建实验平台 | 第47页 |
4.2 双目视觉系统流程 | 第47-48页 |
4.3 摄像机标定 | 第48-51页 |
4.4 立体校正 | 第51-53页 |
4.5 立体匹配 | 第53-55页 |
4.6 本章小结 | 第55-56页 |
结论 | 第56-57页 |
参考文献 | 第57-63页 |
致谢 | 第63页 |