基于阵列相机的深度信息获取
| 摘要 | 第5-6页 |
| ABSTRACT | 第6-7页 |
| 符号对照表 | 第11-12页 |
| 缩略语对照表 | 第12-15页 |
| 第一章 绪论 | 第15-19页 |
| 1.1 双目及多目深度信息获取的研究背景 | 第15-16页 |
| 1.2 深度信息获取技术的国内外研究现状 | 第16-17页 |
| 1.2.1 立体匹配算法 | 第16页 |
| 1.2.2 基于阵列相机的深度信息获取 | 第16-17页 |
| 1.3 本文的主要研究内容和章节安排 | 第17-19页 |
| 第二章 阵列图像的采集与阵列图像拼接 | 第19-31页 |
| 2.1 阵列图像深度信息获取实验系统设计 | 第19-22页 |
| 2.2 基于阵列相机的图像采集 | 第22页 |
| 2.3 六目相机的图像拼接 | 第22-30页 |
| 2.3.1 阵列图像拼接整体设计 | 第22-23页 |
| 2.3.2 阵列图像拼接实现 | 第23-29页 |
| 2.3.3 阵列图像拼接结果 | 第29-30页 |
| 2.4 本章小结 | 第30-31页 |
| 第三章 摄像机标定与阵列图像的立体匹配 | 第31-59页 |
| 3.1 总体流程 | 第31-32页 |
| 3.2 三目相机的标定 | 第32-43页 |
| 3.2.1 摄像机标定的意义及原理 | 第32-37页 |
| 3.2.2 标定板的选择 | 第37-38页 |
| 3.2.3 三目摄像机的标定方法 | 第38-42页 |
| 3.2.4 标定结果分析 | 第42-43页 |
| 3.3 三目相机的立体校正 | 第43-48页 |
| 3.3.1 基于OpenCV的立体校正实现 | 第43-45页 |
| 3.3.2 立体校正实验结果分析 | 第45-48页 |
| 3.4 三目相机的立体匹配 | 第48-57页 |
| 3.4.1 立体匹配概述 | 第48-52页 |
| 3.4.2 立体匹配的分类 | 第52页 |
| 3.4.3 基于置信传播的多相机立体匹配算法 | 第52-55页 |
| 3.4.4 基于图割的多相机立体匹配算法 | 第55-57页 |
| 3.5 实验结果分析 | 第57-58页 |
| 3.6 本章小结 | 第58-59页 |
| 第四章 基于阵列相机的深度获取 | 第59-71页 |
| 4.1 遮挡问题 | 第59-61页 |
| 4.1.1 遮挡问题的定义 | 第59-60页 |
| 4.1.2 遮挡的解决方法 | 第60-61页 |
| 4.1.3 本论文对遮挡的解决方法 | 第61页 |
| 4.2 总体流程 | 第61-62页 |
| 4.3 深度图的融合 | 第62-66页 |
| 4.3.1 视差图向深度图的转换 | 第62-64页 |
| 4.3.2 深度图的轮廓提取 | 第64-65页 |
| 4.3.3 融合方法的选择与实现 | 第65-66页 |
| 4.4 实验结果分析 | 第66-69页 |
| 4.5 本章小结 | 第69-71页 |
| 第五章 总结和展望 | 第71-73页 |
| 5.1 总结 | 第71页 |
| 5.2 展望 | 第71-73页 |
| 参考文献 | 第73-75页 |
| 致谢 | 第75-77页 |
| 作者简介 | 第77-78页 |