摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第12-17页 |
1.1 课题来源及研究的背景和意义 | 第12页 |
1.1.1 课题的来源 | 第12页 |
1.1.2 课题研究的背景和意义 | 第12页 |
1.2 国内外研究现状 | 第12-15页 |
1.2.1 计算机视觉的发展历史概述 | 第12-14页 |
1.2.2 相机标定研究现状 | 第14-15页 |
1.3 文章主要研究内容及结构安排 | 第15-17页 |
第2章 计算机视觉三维重构的理论基础 | 第17-25页 |
2.1 摄像机成像模型 | 第17-21页 |
2.1.1 世界坐标系、相机坐标系、图像物理坐标系和图像像素坐标系 | 第17-20页 |
2.1.2 对极几何 | 第20-21页 |
2.2 相机标定的意义及目的 | 第21-22页 |
2.3 不同场合和外部条件下的三维重建流程 | 第22-24页 |
2.3.1 平行对准配置双目视觉成像模型 | 第22-23页 |
2.3.2 已标定相机的双目视觉成像模型 | 第23页 |
2.3.3 未标定相机视觉模型 | 第23-24页 |
2.4 本章小结 | 第24-25页 |
第3章 平行对准配置的双目视觉模型三维重构 | 第25-43页 |
3.1 匹配面临的难点 | 第25-26页 |
3.1.1 噪声问题 | 第25页 |
3.1.2 弱纹理 | 第25页 |
3.1.3 重复性纹理 | 第25页 |
3.1.4 遮挡问题 | 第25-26页 |
3.1.5 信息丢失问题 | 第26页 |
3.2 实现方案 | 第26-28页 |
3.2.1 图像预处理 | 第26页 |
3.2.2 特征提取、特征匹配 | 第26页 |
3.2.3 初始匹配得到稠密视差图 | 第26页 |
3.2.4 视差图1次优化 | 第26-27页 |
3.2.5 视差图2次优化 | 第27-28页 |
3.3 各阶段实验结果及分析 | 第28-42页 |
3.3.1 预处理阶段 | 第28-29页 |
3.3.2 Harris特征提取 | 第29页 |
3.3.3 立体匹配的匹配策略 | 第29-36页 |
3.3.4 算法评估及结果分析 | 第36页 |
3.3.5 三维重构 | 第36-42页 |
3.4 本章小结 | 第42-43页 |
第4章 未标定相机视觉模型重构方法概述 | 第43-47页 |
4.1 本文针对未标定相机两视图重构的主要实现流程 | 第43页 |
4.2 未标定相机两视图的特征匹配 | 第43-46页 |
4.2.1 SIFT特征匹配算法 | 第43-44页 |
4.2.2 SIFT特征匹配实验结果 | 第44-46页 |
4.3 本章小结 | 第46-47页 |
第5章 基础矩阵的鲁棒估计 | 第47-57页 |
5.1 基础矩阵 | 第47-48页 |
5.2 基础矩阵F的表达式的推导 | 第48-50页 |
5.3 基础矩阵的估计算法 | 第50-53页 |
5.3.1 线性方法 | 第50-51页 |
5.3.2 迭代方法 | 第51页 |
5.3.3 鲁棒方法 | 第51-53页 |
5.4 RANSAC基础矩阵鲁棒估计方法的改进 | 第53-55页 |
5.5 改进的RANSAC剔除外点(误匹配)实验结果 | 第55-56页 |
5.6 本章小结 | 第56-57页 |
第6章 相机自标定以及空间点三维坐标的求解 | 第57-72页 |
6.1 相机自标定 | 第57-61页 |
6.1.1 Hough直线提取 | 第57-58页 |
6.1.2 影灭点 | 第58-59页 |
6.1.3 基于影灭点估计的相机内参求解 | 第59-61页 |
6.1.4 相机自标定结果 | 第61页 |
6.2 运动恢复——R和t的计算 | 第61-63页 |
6.3 空间点三维坐标的求解 | 第63-64页 |
6.4 实验结果 | 第64-69页 |
6.4.1 剔除场景中偏离重构对象的点 | 第66-69页 |
6.5 openGL纹理贴图 | 第69-71页 |
6.6 本章小结 | 第71-72页 |
第7章 针对自拍摄图像的三维重构实验 | 第72-85页 |
7.1 手机拍摄照片匹配实验 | 第72-80页 |
7.1.1 迭代的斜率一致性 | 第73-80页 |
7.2 数码相机拍摄照片重构实验 | 第80-83页 |
7.3 算法实时性评价 | 第83-85页 |
结论 | 第85-87页 |
攻读硕士学位期间发表的论文 | 第87-88页 |
参考文献 | 第88-95页 |
致谢 | 第95页 |