基于无人机航拍图像序列的三维重建研究与实现
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 研究背景与意义 | 第10页 |
1.2 国内外现状 | 第10-13页 |
1.2.1 基于双目三维重建 | 第10-12页 |
1.2.2 基于图像序列的三维重建 | 第12-13页 |
1.3 本文主要贡献以及结构安排 | 第13-16页 |
1.3.1 本文主要贡献 | 第13-14页 |
1.3.2 本文结构安排 | 第14-16页 |
第二章 摄像机标定与三维重建理论基础 | 第16-24页 |
2.1 相机模型与相机标定 | 第16-20页 |
2.1.1 参考坐标系 | 第16-17页 |
2.1.2 针孔相机模型 | 第17-19页 |
2.1.3 相机标定 | 第19-20页 |
2.2 基本矩阵与本质矩阵 | 第20-21页 |
2.3 分层三维重建理论 | 第21-22页 |
2.4 本章小结 | 第22-24页 |
第三章 图像特征点的提取与匹配 | 第24-42页 |
3.1 图像特征点 | 第24-25页 |
3.2 Harris角点检测 | 第25-29页 |
3.3 尺度空间与SIFT算子 | 第29-37页 |
3.3.1 尺度空间金字塔 | 第31-32页 |
3.3.2 局部极值点检测 | 第32-37页 |
3.4 特征点匹配与误匹配的消除 | 第37-41页 |
3.4.1 匹配策略与搜索方法 | 第37-40页 |
3.4.2 误匹配点的消除与匹配结果显示 | 第40-41页 |
3.5 本章小结 | 第41-42页 |
第四章 基于双目图像序列的三维重建 | 第42-59页 |
4.1 双目视觉系统搭建 | 第42-45页 |
4.1.1 硬件平台 | 第42-44页 |
4.1.2 双目导航框架与双目三维重建 | 第44-45页 |
4.2 立体匹配 | 第45-49页 |
4.2.1 基本原理与方法分类 | 第45-47页 |
4.2.2 匹配步骤 | 第47-49页 |
4.3 半全局立体匹配算法 | 第49-54页 |
4.3.1 基于互信息的匹配代价计算 | 第49-50页 |
4.3.2 匹配代价的聚合 | 第50-51页 |
4.3.3 视差计算及一致性检查 | 第51-52页 |
4.3.4 本文方法以及深度图获取 | 第52-54页 |
4.4 基于深度图的三维重建 | 第54-58页 |
4.4.1 三角测量与深度映射 | 第54-56页 |
4.4.2 OpenCV和OpenGL混合编程 | 第56-57页 |
4.4.3 重建结果 | 第57-58页 |
4.5 本章小结 | 第58-59页 |
第五章 基于航拍图像序列的三维重建软件系统 | 第59-79页 |
5.1 视频采集与重建流程 | 第59-61页 |
5.2 相机矩阵解算与稀疏点云重建 | 第61-65页 |
5.2.1 运动中恢复结构 | 第62-65页 |
5.2.2 光束法平差 | 第65页 |
5.3 稠密点云重建 | 第65-71页 |
5.3.1 算法原理 | 第66-68页 |
5.3.2 重建过程 | 第68-71页 |
5.4 软件系统设计 | 第71-74页 |
5.4.1 模块设计 | 第71-73页 |
5.4.2 开发环境与软件界面 | 第73-74页 |
5.5 重建流程与重建结果 | 第74-78页 |
5.6 本章小结 | 第78-79页 |
第六章 总结与展望 | 第79-81页 |
6.1 本文总结 | 第79页 |
6.2 工作展望 | 第79-81页 |
致谢 | 第81-82页 |
参考文献 | 第82-86页 |
攻读硕士学位期间取得的成果 | 第86-87页 |