摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第9-15页 |
1.1 课题研究背景和意义 | 第9-10页 |
1.2 双目立体视觉的国内外研究现状 | 第10-14页 |
1.2.1 摄像机标定的研究现状 | 第10-11页 |
1.2.2 图像立体匹配的研究现状 | 第11-13页 |
1.2.3 三维重建技术的研究现状 | 第13-14页 |
1.3 本文内容安排 | 第14-15页 |
第二章 双目相机标定原理及方法 | 第15-33页 |
2.1 引言 | 第15页 |
2.2 相机成像模型 | 第15-21页 |
2.2.1 参考坐标系 | 第15-17页 |
2.2.2 线性成像模型 | 第17-19页 |
2.2.3 非线性成像模型 | 第19-21页 |
2.3 双目立体视觉原理 | 第21页 |
2.4 张正友平面标定法 | 第21-25页 |
2.5 双目视觉平台搭建及相机标定实验 | 第25-32页 |
2.5.1 双目视觉平台搭建 | 第25-26页 |
2.5.2 双目相机标定实验 | 第26-32页 |
2.6 本章小结 | 第32-33页 |
第三章 SURF和LDB相结合的匹配算法 | 第33-42页 |
3.1 引言 | 第33页 |
3.2 立体匹配基本理论 | 第33-35页 |
3.2.1 立体匹配的内容 | 第33-34页 |
3.2.2 立体匹配的方法 | 第34-35页 |
3.3 SURF和LDB相结合的匹配算法 | 第35-40页 |
3.3.1 特征点检测 | 第35-36页 |
3.3.2 特征点的LDB描述 | 第36-37页 |
3.3.3 特征点匹配 | 第37页 |
3.3.4 实验分析 | 第37-40页 |
3.4 本章小结 | 第40-42页 |
第四章 融合彩色和光照信息的SIFT匹配算法 | 第42-51页 |
4.1 引言 | 第42页 |
4.2 融合彩色和光照信息的SIFT匹配算法原理 | 第42-43页 |
4.3 融合彩色和光照信息的灰度化 | 第43-44页 |
4.3.1 彩色补偿量的提取 | 第43-44页 |
4.3.2 光照补偿量的提取 | 第44页 |
4.4 SIFT图像匹配算法 | 第44-46页 |
4.4.1 尺度空间极值检测 | 第45页 |
4.4.2 关键点的准确定位 | 第45页 |
4.4.3 确定关键点的方向 | 第45页 |
4.4.4 特征向量生成 | 第45-46页 |
4.5 特征点匹配 | 第46页 |
4.6 实验分析 | 第46-50页 |
4.7 本章小结 | 第50-51页 |
第五章 基于改进算法的三维重建实验结果与分析 | 第51-63页 |
5.1 引言 | 第51页 |
5.2 空间点三维坐标的计算 | 第51-53页 |
5.3 基于Open GL的三维重建 | 第53-54页 |
5.3.1 Open GL简介 | 第53页 |
5.3.2 Delaunay三角剖分和纹理粘贴 | 第53-54页 |
5.3.3 基于Open GL的深度数据三维表面重建理 | 第54页 |
5.4 基于SURF和LDB相结合的匹配算法的单视角三维重建 | 第54-58页 |
5.4.1 图像匹配 | 第54-56页 |
5.4.2 三维坐标计算 | 第56页 |
5.4.3 三角剖分结果 | 第56-57页 |
5.4.4 OpenGL显示效果 | 第57-58页 |
5.5 基于融合色彩和光照信息的SIFT匹配算法的单视角三维重建 | 第58-62页 |
5.5.1 图像匹配 | 第58-60页 |
5.5.2 三维坐标计算 | 第60页 |
5.5.3 三角剖分结果 | 第60页 |
5.5.4 OpenGL显示效果 | 第60-62页 |
5.6 本章小结 | 第62-63页 |
结论 | 第63-65页 |
参考文献 | 第65-70页 |
致谢 | 第70-71页 |
攻读学位期间发表的学术论文 | 第71页 |