双目立体视觉匹配方法研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第11-15页 |
1.1 选题背景和研究意义 | 第11-12页 |
1.2 立体匹配技术的研究现状 | 第12-15页 |
第二章 双目立体视觉中的立体匹配 | 第15-37页 |
2.1 双目立体视觉原理 | 第15-20页 |
2.1.1 图像表达与维度信息丢失 | 第15-16页 |
2.1.2 极线几何 | 第16-17页 |
2.1.3 极线校正 | 第17-19页 |
2.1.4 三角测量原理 | 第19-20页 |
2.2 双目立体视觉算法流程 | 第20-21页 |
2.2.1 立体图像对采集与预处理 | 第20页 |
2.2.2 摄像机标定 | 第20-21页 |
2.2.3 立体匹配 | 第21页 |
2.2.4 三维重建 | 第21页 |
2.3 摄像机标定 | 第21-26页 |
2.3.1 摄像机标定相关坐标系及相互关系 | 第21-24页 |
2.3.2 单目摄像机标定 | 第24-26页 |
2.3.3 双目摄像机标定 | 第26页 |
2.4 立体匹配相关理论 | 第26-31页 |
2.4.1 视差矢量和视差图 | 第27页 |
2.4.2 立体匹配的难点和基本约束条件 | 第27-28页 |
2.4.3 立体匹配的评价标准 | 第28-31页 |
2.5 立体匹配的分类及常见算法 | 第31-35页 |
2.5.1 稠密立体匹配算法 | 第31-34页 |
2.5.2 稀疏立体匹配算法 | 第34-35页 |
2.6 小结 | 第35-37页 |
第三章 常见的相似性测度及卷积神经网络 | 第37-45页 |
3.1 常见的匹配代价函数 | 第37-39页 |
3.2 深度学习 | 第39-42页 |
3.3 卷积神经网络 | 第42-43页 |
3.3.1 局部感知 | 第42页 |
3.3.2 参数共享 | 第42-43页 |
3.3.3 池化 | 第43页 |
3.4 小结 | 第43-45页 |
第四章 常见的代价聚合方法和引导滤波 | 第45-61页 |
4.1 匹配代价卷和匹配代价片 | 第45页 |
4.2 匹配代价聚合 | 第45-51页 |
4.2.1 基于可变窗口的代价聚合 | 第47-48页 |
4.2.2 基于自适应权重的代价聚合 | 第48-51页 |
4.3 代价卷滤波 | 第51-52页 |
4.4 引导滤波 | 第52-56页 |
4.4.1 引导滤波定义 | 第52-54页 |
4.4.2 引导滤波的边缘保持特性 | 第54-55页 |
4.4.3 改进的引导滤波 | 第55-56页 |
4.5 稀疏立体视觉算法在机器人视觉中的应用 | 第56-59页 |
4.6 小结 | 第59-61页 |
第五章 结合深度特征的代价滤波立体匹配算法 | 第61-75页 |
5.1 本文局部立体匹配算法框架 | 第61-62页 |
5.2 基于深度特征的匹配代价函数构建 | 第62-63页 |
5.3 基于引导滤波的代价卷滤波 | 第63-64页 |
5.4 Winner-Take-All视差值选取 | 第64-65页 |
5.5 初始视差图遮挡处理 | 第65-67页 |
5.5.1 左—右一致性检测 | 第67页 |
5.6 视差图优化 | 第67-69页 |
5.7 实验结果及分析 | 第69-74页 |
5.8 小结 | 第74-75页 |
第六章 结论和展望 | 第75-77页 |
6.1 结论 | 第75页 |
6.2 展望 | 第75-77页 |
致谢 | 第77-79页 |
参考文献 | 第79-85页 |
附录:攻读硕士期间发表论文情况 | 第85页 |
参与国家自然科学基金项目 | 第85页 |