摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-15页 |
1.1 课题背景及研究意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-14页 |
1.2.1 三维点云场景重构研究现状 | 第10-12页 |
1.2.2 三维点云模型可视化研究现状 | 第12-14页 |
1.3 本文主要研究内容 | 第14-15页 |
第2章 多视图重建系统设计及基础 | 第15-23页 |
2.1 重建系统界面设计 | 第15-16页 |
2.2 摄像机坐标系模型设置 | 第16-18页 |
2.3 双目立体视觉基本原理及算法 | 第18-22页 |
2.3.1 视图间的对极几何关系 | 第18页 |
2.3.2 基本矩阵与本质矩阵的推导 | 第18-20页 |
2.3.3 五点算法求解本质矩阵 | 第20页 |
2.3.4 线性八点算法求解基本矩阵 | 第20-21页 |
2.3.5 固定对相机三角测量原理 | 第21-22页 |
2.4 本章小结 | 第22-23页 |
第3章 摄像机标定与图像特征点匹配 | 第23-37页 |
3.1 摄像机标定实验 | 第23-25页 |
3.1.1 实验相机参数与数据 | 第23页 |
3.1.2 基于 OpenCV 的相机自标定方法 | 第23-24页 |
3.1.3 标定实验及其结果 | 第24-25页 |
3.2 特征点检测与匹配 | 第25-32页 |
3.2.1 特征点检测方法 | 第26页 |
3.2.2 SIFT 和 SURF 特征点检测 | 第26-29页 |
3.2.3 SIFT 和 SURF 特征点检测与匹配实验 | 第29-32页 |
3.3 特征点匹配剔除策略及实验 | 第32-36页 |
3.3.1 匹配剔除策略与 RANSAC 参数选择 | 第32页 |
3.3.2 基本矩阵 F 的计算 | 第32-36页 |
3.4 本章小结 | 第36-37页 |
第4章 场景深度信息恢复 | 第37-49页 |
4.1 初始对相机选择与场景深度计算 | 第37-41页 |
4.1.1 初始对相机图像选择 | 第38页 |
4.1.2 五点算法求解基本矩阵及误解剔除 | 第38-39页 |
4.1.3 三角测量方法 | 第39-41页 |
4.2 变量式图像添加法计算场景深度 | 第41-44页 |
4.2.1 DLT 技术计算相机外部参数 | 第41-43页 |
4.2.2 校正新相机焦距 | 第43页 |
4.2.3 添加图像条件及优化 | 第43-44页 |
4.3 改良的重建匹配策略及实现 | 第44-48页 |
4.3.1 改良的重建匹配策略原理 | 第44-45页 |
4.3.2 改良的重建匹配策略实验 | 第45-48页 |
4.4 本章小结 | 第48-49页 |
第5章 点云模型可视化 | 第49-62页 |
5.1 模型表面参数化 | 第50-52页 |
5.1.1 网格化方法 | 第50页 |
5.1.2 网格化模型方法选择 | 第50-51页 |
5.1.3 Delaunay 三角化方法与实现 | 第51-52页 |
5.2 纹理映射目标图像优化 | 第52-58页 |
5.2.1 基于图像的网格纹理映射方法 | 第53-54页 |
5.2.2 网格纹理目标图像优化 | 第54-58页 |
5.3 点云模型视觉外观恢复实验 | 第58-61页 |
5.3.1 基于片扩展的多视角立体视觉重构实验 | 第58-59页 |
5.3.2 点云模型图像纹理映射实验 | 第59-61页 |
5.4 本章小结 | 第61-62页 |
结论 | 第62-63页 |
参考文献 | 第63-68页 |
致谢 | 第68页 |