基于阵列相机的深度信息获取
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
符号对照表 | 第11-12页 |
缩略语对照表 | 第12-15页 |
第一章 绪论 | 第15-19页 |
1.1 双目及多目深度信息获取的研究背景 | 第15-16页 |
1.2 深度信息获取技术的国内外研究现状 | 第16-17页 |
1.2.1 立体匹配算法 | 第16页 |
1.2.2 基于阵列相机的深度信息获取 | 第16-17页 |
1.3 本文的主要研究内容和章节安排 | 第17-19页 |
第二章 阵列图像的采集与阵列图像拼接 | 第19-31页 |
2.1 阵列图像深度信息获取实验系统设计 | 第19-22页 |
2.2 基于阵列相机的图像采集 | 第22页 |
2.3 六目相机的图像拼接 | 第22-30页 |
2.3.1 阵列图像拼接整体设计 | 第22-23页 |
2.3.2 阵列图像拼接实现 | 第23-29页 |
2.3.3 阵列图像拼接结果 | 第29-30页 |
2.4 本章小结 | 第30-31页 |
第三章 摄像机标定与阵列图像的立体匹配 | 第31-59页 |
3.1 总体流程 | 第31-32页 |
3.2 三目相机的标定 | 第32-43页 |
3.2.1 摄像机标定的意义及原理 | 第32-37页 |
3.2.2 标定板的选择 | 第37-38页 |
3.2.3 三目摄像机的标定方法 | 第38-42页 |
3.2.4 标定结果分析 | 第42-43页 |
3.3 三目相机的立体校正 | 第43-48页 |
3.3.1 基于OpenCV的立体校正实现 | 第43-45页 |
3.3.2 立体校正实验结果分析 | 第45-48页 |
3.4 三目相机的立体匹配 | 第48-57页 |
3.4.1 立体匹配概述 | 第48-52页 |
3.4.2 立体匹配的分类 | 第52页 |
3.4.3 基于置信传播的多相机立体匹配算法 | 第52-55页 |
3.4.4 基于图割的多相机立体匹配算法 | 第55-57页 |
3.5 实验结果分析 | 第57-58页 |
3.6 本章小结 | 第58-59页 |
第四章 基于阵列相机的深度获取 | 第59-71页 |
4.1 遮挡问题 | 第59-61页 |
4.1.1 遮挡问题的定义 | 第59-60页 |
4.1.2 遮挡的解决方法 | 第60-61页 |
4.1.3 本论文对遮挡的解决方法 | 第61页 |
4.2 总体流程 | 第61-62页 |
4.3 深度图的融合 | 第62-66页 |
4.3.1 视差图向深度图的转换 | 第62-64页 |
4.3.2 深度图的轮廓提取 | 第64-65页 |
4.3.3 融合方法的选择与实现 | 第65-66页 |
4.4 实验结果分析 | 第66-69页 |
4.5 本章小结 | 第69-71页 |
第五章 总结和展望 | 第71-73页 |
5.1 总结 | 第71页 |
5.2 展望 | 第71-73页 |
参考文献 | 第73-75页 |
致谢 | 第75-77页 |
作者简介 | 第77-78页 |