摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第10-17页 |
1.1 课题研究的背景和意义 | 第10-12页 |
1.2 双目视觉三维重构技术的研究现状 | 第12-14页 |
1.2.1 相机标定的研究现状 | 第13-14页 |
1.2.2 图像匹配的研究现状 | 第14页 |
1.3 文章主要研究内容 | 第14-17页 |
第2章 双目视觉三维重构的理论基础 | 第17-26页 |
2.1 相机透视投影模型 | 第17-22页 |
2.1.1 四个坐标系的概念及转换关系 | 第17-19页 |
2.1.2 线性相机模型 | 第19-22页 |
2.2 双目视觉 | 第22-25页 |
2.2.1 双目视觉三维测量原理及数学模型 | 第22-24页 |
2.2.2 对极几何 | 第24-25页 |
2.3 三维重构系统的重构流程 | 第25页 |
2.4 本章小结 | 第25-26页 |
第3章 相机标定的研究与实现 | 第26-36页 |
3.1 常见的相机标定方法 | 第26-27页 |
3.2 基于灭点的相机自标定方法 | 第27-31页 |
3.2.1 灭点求解相机内参数原理 | 第27-29页 |
3.2.2 Hough变换提取直线 | 第29-31页 |
3.2.3 基于灭点的相机自标定结果 | 第31页 |
3.3 张氏平面模板标定法 | 第31-35页 |
3.3.1 透视投影矩阵的获取 | 第31-32页 |
3.3.2 相机参数的获取 | 第32-33页 |
3.3.3 相机标定结果 | 第33-35页 |
3.4 本章小结 | 第35-36页 |
第4章 图像特征提取与特征匹配 | 第36-51页 |
4.1 图像特征提取 | 第36-43页 |
4.1.1 SIFT特征提取 | 第36-40页 |
4.1.2 SURF特征提取 | 第40-41页 |
4.1.3 SIFT算法与SURF算法特征提取实验结果比较 | 第41-43页 |
4.2 SIFT图像匹配 | 第43-50页 |
4.2.1 图像匹配的约束准则 | 第43-44页 |
4.2.2 常用的匹配方法 | 第44-45页 |
4.2.3 一种改进的误匹配剔除策略 | 第45-47页 |
4.2.4 匹配策略评估 | 第47-50页 |
4.3 实验结果 | 第50页 |
4.4 本章小结 | 第50-51页 |
第5章 图像间基础矩阵的求解 | 第51-61页 |
5.1 基础矩阵 | 第51-52页 |
5.2 基础矩阵公式推导 | 第52-54页 |
5.3 常用的基础矩阵的估计算法 | 第54-57页 |
5.3.1 线性方法 | 第54-55页 |
5.3.2 迭代方法 | 第55页 |
5.3.3 鲁棒方法 | 第55-57页 |
5.4 RANSAC基础矩阵估计方法的改进及性能评价 | 第57-58页 |
5.4.1 RANSAC基础矩阵估计方法的改进 | 第57-58页 |
5.4.2 改进的RANSAC基础矩阵估计方法的性能评价 | 第58页 |
5.5 实验结果与分析 | 第58-60页 |
5.6 本章小结 | 第60-61页 |
第6章 三维重构 | 第61-77页 |
6.1 基础矩阵与相机内部参数恢复相机外部参数 | 第61-62页 |
6.2 空间点三维坐标的求解 | 第62-63页 |
6.3 标准测试图像实验结果 | 第63-67页 |
6.3.1 剔除严重偏离主场景的匹配点对 | 第64-66页 |
6.3.2 三角剖分 | 第66-67页 |
6.4 三维模型真实感恢复 | 第67-69页 |
6.5 自拍摄图像三维重建 | 第69-75页 |
6.5.1 SIFT初始匹配与误匹配剔除 | 第69-70页 |
6.5.2 基础矩阵求解与误匹配再剔除 | 第70-71页 |
6.5.3 建立自拍摄图像三维模型 | 第71-75页 |
6.6 模型精度分析 | 第75-76页 |
6.7 本章小结 | 第76-77页 |
结论 | 第77-79页 |
参考文献 | 第79-85页 |
致谢 | 第85页 |