摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第9-18页 |
1.1 课题的研究背景、目的和意义 | 第9-11页 |
1.2 国内外研究现状及分析 | 第11-16页 |
1.3 本文主要研究工作 | 第16-17页 |
1.4 本文的章节安排 | 第17-18页 |
第2章 双目立体视觉的理论基础 | 第18-30页 |
2.1 摄像机标定 | 第18-22页 |
2.1.1 摄像机透视投影模型 | 第18-19页 |
2.1.2 平面棋盘标定算法 | 第19-21页 |
2.1.3 双目标定 | 第21页 |
2.1.4 极线几何与立体校正 | 第21-22页 |
2.2 立体匹配 | 第22-25页 |
2.2.1 立体匹配的约束条件 | 第23-24页 |
2.2.2 立体匹配的相似性度量 | 第24页 |
2.2.3 立体匹配的评价参数 | 第24-25页 |
2.2.4 立体匹配的难点 | 第25页 |
2.3 三维重建 | 第25-28页 |
2.3.1 三维重建的基本原理 | 第25-26页 |
2.3.2 平行式双目立体视觉三维重建 | 第26-28页 |
2.4 Mean Shift平滑滤波—保边平滑滤波 | 第28-29页 |
2.5 本章小结 | 第29-30页 |
第3章 双目立体视觉系统关键技术设计 | 第30-48页 |
3.1 双目立体视觉系统整体框架 | 第30-31页 |
3.2 摄像机标定 | 第31-34页 |
3.2.1 数据准备 | 第31-33页 |
3.2.2 标定部分 | 第33-34页 |
3.3 边缘特征与抽样区域相融合的匹配方法 | 第34-43页 |
3.3.1 边缘特征匹配 | 第35-37页 |
3.3.2 边缘视差校正 | 第37-38页 |
3.3.3 抽样区域匹配 | 第38-41页 |
3.3.4 图像分割—基于边缘的区域增长 | 第41-43页 |
3.3.5 视差重填校正 | 第43页 |
3.4 准平行式双目立体视觉三维重建 | 第43-44页 |
3.5 面向机器人导航的立体匹配算法 | 第44-47页 |
3.5.1 基于子图像的边缘特征与抽样区域相结合方法 | 第45-46页 |
3.5.2 基于子图像的边缘特征匹配方法 | 第46-47页 |
3.6 本章小结 | 第47-48页 |
第4章 双目立体视觉系统实验结果及分析 | 第48-68页 |
4.1 双目立体视觉系统搭建 | 第48-50页 |
4.1.1 摄像头的选择 | 第48页 |
4.1.2 影响双目立体视觉精度因素 | 第48-49页 |
4.1.3 针对影响因素提出解决方案 | 第49页 |
4.1.4 系统搭建 | 第49-50页 |
4.2 双目立体视觉标定结果及分析 | 第50-53页 |
4.2.1 摄像机标定结果展示 | 第50-51页 |
4.2.2 摄像机标定结果分析 | 第51-53页 |
4.3 双目立体视觉立体匹配结果及分析 | 第53-61页 |
4.3.1 立体匹配使用的数据库介绍 | 第53-55页 |
4.3.2 立体匹配结果展示及分析 | 第55-58页 |
4.3.3 立体匹配结果综合分析 | 第58-61页 |
4.4 双目立体视觉三维重建结果及分析 | 第61-64页 |
4.4.1 标准库中图片的三维重建 | 第61-62页 |
4.4.2 现实场景三维重建 | 第62-63页 |
4.4.3 三维重建结果与分析 | 第63-64页 |
4.5 系统性能分析及改进方向 | 第64-67页 |
4.6 本章小结 | 第67-68页 |
结论 | 第68-69页 |
参考文献 | 第69-76页 |
致谢 | 第76页 |