基于多尺度与卷积神经网络的双目立体视觉研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-15页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 国内外研究现状和存在的问题 | 第10-12页 |
1.2.1 立体匹配技术的研究现状 | 第10-11页 |
1.2.2 深度恢复及重建技术的研究现状 | 第11页 |
1.2.3 存在的问题 | 第11-12页 |
1.3 本文的研究内容 | 第12-13页 |
1.4 本文的章节安排 | 第13-15页 |
第2章 预备知识 | 第15-26页 |
2.1 双目立体视觉基本原理 | 第15-18页 |
2.1.1 相机成像模型及坐标转换关系 | 第15-18页 |
2.1.2 双目视差的几何原理 | 第18页 |
2.2 双目立体视觉系统 | 第18-23页 |
2.2.1 图像获取 | 第19页 |
2.2.2 相机标定 | 第19-20页 |
2.2.3 图像校正 | 第20-21页 |
2.2.4 立体匹配 | 第21-23页 |
2.2.5 三维重建 | 第23页 |
2.3 常见的立体匹配方法 | 第23-25页 |
2.3.1 SGM算法 | 第23-24页 |
2.3.2 ADCensus 算法 | 第24-25页 |
2.4 本章小结 | 第25-26页 |
第3章 基于多尺度卷积神经网络的立体匹配方法 | 第26-43页 |
3.1 相关原理与立体匹配框架设计 | 第26-34页 |
3.1.1 获取图像多尺度信息 | 第26-27页 |
3.1.2 卷积神经网络原理 | 第27-31页 |
3.1.3 多层神经网络的反向传播算法 | 第31-33页 |
3.1.4 网络结构设计 | 第33-34页 |
3.1.5 立体匹配流程 | 第34页 |
3.2 网络训练阶段 | 第34-36页 |
3.2.1 构造训练数据集 | 第34-36页 |
3.2.2 网络模型的损失函数 | 第36页 |
3.2.3 训练相关参数设置 | 第36页 |
3.3 视差计算阶段 | 第36-39页 |
3.3.1 计算匹配代价 | 第37-38页 |
3.3.2 视差优化 | 第38-39页 |
3.4 实验结果与分析 | 第39-41页 |
3.4.1 网络训练分析 | 第39页 |
3.4.2 视差质量分析 | 第39-41页 |
3.5 本章小结 | 第41-43页 |
第4章 基于双目视差的深度提取及重建 | 第43-50页 |
4.1 基于双目视差的重建流程 | 第43-44页 |
4.2 深度信息以及三维坐标的获取 | 第44-45页 |
4.3 三角网构造原理 | 第45-46页 |
4.4 可视化显示与分析 | 第46-49页 |
4.5 本章小结 | 第49-50页 |
第5章 总结与展望 | 第50-52页 |
5.1 本文总结 | 第50-51页 |
5.2 研究展望 | 第51-52页 |
致谢 | 第52-53页 |
参考文献 | 第53-57页 |
攻读硕士学位期间研究成果 | 第57页 |