摘要 | 第3-4页 |
ABSTRACT | 第4页 |
第1章 绪论 | 第8-13页 |
1.1 研究背景和意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-10页 |
1.3 本文研究内容与章节安排 | 第10-13页 |
1.3.1 本文研究内容 | 第10-12页 |
1.3.2 本文章节安排 | 第12-13页 |
第2章 基于双目立体视觉的深度探测理论 | 第13-22页 |
2.1 针孔摄像机模型 | 第13-16页 |
2.1.1 理想的针孔摄像机模型 | 第13-14页 |
2.1.2 带畸变的扩展模型 | 第14-16页 |
2.1.3 聚焦倾斜平面的扩展模型 | 第16页 |
2.1.4 小结 | 第16页 |
2.2 对极几何原理 | 第16-19页 |
2.2.1 对极几何关系 | 第16-17页 |
2.2.2 本质矩阵 | 第17-19页 |
2.2.3 基础矩阵 | 第19页 |
2.3 深度与视差之间的关系 | 第19-21页 |
2.3.1 立体成像模型 | 第19-21页 |
2.3.2 影响深度精度的因素 | 第21页 |
2.4 本章小结 | 第21-22页 |
第3章 基于OPENCV的摄像机标定与校正 | 第22-31页 |
3.1 摄像机标定 | 第22-25页 |
3.1.1 标定模板 | 第22页 |
3.1.2 基于OpenCV的标定函数 | 第22-23页 |
3.1.3 基于OpenCV实现双目标定的结果 | 第23-25页 |
3.2 双目校正 | 第25-30页 |
3.2.1 Bouguet算法校正原理 | 第25-27页 |
3.2.2 基于OpenCV的双目校正原理与实现 | 第27-29页 |
3.2.3 基于OpenCV实现双目校正的结果 | 第29-30页 |
3.3 本章小结 | 第30-31页 |
第4章 半全局立体匹配算法 | 第31-46页 |
4.1 获取初步视差图 | 第31-37页 |
4.1.1 相对灰度差匹配 | 第31-33页 |
4.1.2 Census变换 | 第33-34页 |
4.1.3 固定窗口加权计算匹配代价 | 第34页 |
4.1.4 动态规划处理 | 第34-35页 |
4.1.5 对视差值再调整 | 第35-37页 |
4.2 基于RANSAC计算超像素视差平面 | 第37-40页 |
4.2.1 分割超像素块 | 第37-39页 |
4.2.2 RANSAC估算块视差平面 | 第39-40页 |
4.3 更新视差平面 | 第40-45页 |
4.3.1 再次搜寻边界点归属块 | 第40-41页 |
4.3.2 以边界线类型更新视差平面 | 第41-45页 |
4.4 本章小结 | 第45-46页 |
第5章 立体匹配算法实验测试与分析 | 第46-67页 |
5.1 实验平台与参数设置 | 第46-48页 |
5.1.1 实验平台 | 第46页 |
5.1.2 测试图像实验参数 | 第46-47页 |
5.1.3 实验评判依据 | 第47-48页 |
5.2 实验结果对比与分析 | 第48-62页 |
5.2.1 Census权系数对平均误差的影响 | 第48-57页 |
5.2.2 改进的RANSAC算法对平均误差的影响 | 第57-60页 |
5.2.3 室外场景中彩色形式展示视差图 | 第60-62页 |
5.3 与OpenCV半全局匹配算法性能比较 | 第62-66页 |
5.3.1 整体的性能分析 | 第62-64页 |
5.3.2 局部细节分析 | 第64-66页 |
5.3.3 实时性分析 | 第66页 |
5.4 本章小结 | 第66-67页 |
第6章 三维点云重建与地面高度测量 | 第67-72页 |
6.1 OpenGL三维点云重建 | 第67-70页 |
6.2 地面高度测量 | 第70-71页 |
6.3 本章小结 | 第71-72页 |
第7章 总结与展望 | 第72-74页 |
7.1 工作总结 | 第72页 |
7.2 课题展望 | 第72-74页 |
参考文献 | 第74-78页 |
附录1 | 第78-82页 |
附录2 | 第82-85页 |
附录3 | 第85-87页 |
致谢 | 第87-88页 |
个人简介 | 第88页 |