摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第11-23页 |
1.1 课题背景 | 第11页 |
1.2 常见的深度获取方式 | 第11-14页 |
1.2.1 双目相机与立体匹配 | 第12页 |
1.2.2 结构光原理的RGB-D相机 | 第12-13页 |
1.2.3 激光雷达 | 第13-14页 |
1.2.4 对比 | 第14页 |
1.3 视差与深度 | 第14-16页 |
1.4 常用的立体匹配方法 | 第16-20页 |
1.4.1 局部匹配 | 第16-18页 |
1.4.2 全局匹配 | 第18-19页 |
1.4.3 其他匹配方法 | 第19-20页 |
1.5 深度学习方法在深度恢复相关领域的应用 | 第20-22页 |
1.5.1 深度学习与深度恢复 | 第20页 |
1.5.2 深度学习与法向估计 | 第20-22页 |
1.6 本文研究内容 | 第22页 |
1.7 本章小结 | 第22-23页 |
第2章 系统流程与框架 | 第23-27页 |
2.1 视差图彩色化 | 第23-24页 |
2.2 算法框架结构 | 第24-26页 |
2.3 本章小结 | 第26-27页 |
第3章 算法模块 | 第27-40页 |
3.1 视差置信度算法 | 第27-34页 |
3.1.1 基于左右视图视差一致性的置信度算法 | 第28-30页 |
3.1.2 基于平面拟合的置信度算法 | 第30-34页 |
3.2 基于视差跳变的边缘检测和融合 | 第34-38页 |
3.2.1 多种边缘检测 | 第34-36页 |
3.2.2 寻找视差跳变的边缘融合与检测 | 第36-38页 |
3.3 本章小结 | 第38-40页 |
第4章 基于法向约束恢复视差图 | 第40-47页 |
4.1 法向信息的预处理 | 第40-41页 |
4.2 法向到视差的转化 | 第41-42页 |
4.3 基于法向和初始视差双约束的视差求解 | 第42-45页 |
4.4 迭代视差优化 | 第45-46页 |
4.5 本章小结 | 第46-47页 |
第5章 快速的视差获取方案 | 第47-52页 |
5.1 算法概述 | 第47页 |
5.2 优化模块 | 第47-51页 |
5.2.1 视差跳变边界与法向约束 | 第48-49页 |
5.2.2 视差约束 | 第49-50页 |
5.2.3 视差迭代求解 | 第50-51页 |
5.3 本章小结 | 第51-52页 |
第6章 实验对比 | 第52-62页 |
6.1 概述 | 第52页 |
6.2 完全版算法的视差图质量实验 | 第52-56页 |
6.2.1 MC-CNN初始视差方案在Middlebury数据集上的测试 | 第52-55页 |
6.2.2 SGM初始视差方案在Middlebury数据集上的测试 | 第55-56页 |
6.3 快速版本的视差图质量与用时实验 | 第56-61页 |
6.3.1 SGM初始视差方案在Middlebury数据集上的测试 | 第57-58页 |
6.3.2 SGM初始视差方案在视频序列上的测试 | 第58-61页 |
6.4 本章小结 | 第61-62页 |
第7章 总结与展望 | 第62-64页 |
7.1 总结 | 第62-63页 |
7.2 展望 | 第63-64页 |
参考文献 | 第64-69页 |
攻读硕士学位期间主要的研究成果 | 第69-70页 |
致谢 | 第70页 |