基于多张全景图的虚拟视点合成系统
摘要 | 第3-4页 |
abstract | 第4页 |
第1章 绪论 | 第7-11页 |
1.1 课题背景 | 第7-8页 |
1.2 本文研究内容及目标 | 第8页 |
1.3 本文贡献 | 第8-9页 |
1.4 本文的组织结构 | 第9-11页 |
第2章 相关研究工作 | 第11-29页 |
2.1 视点合成技术 | 第11-14页 |
2.1.1 基于模型的绘制 | 第12页 |
2.1.2 基于图像的绘制 | 第12-14页 |
2.2 SIFT特征点提取及匹配技术 | 第14-19页 |
2.2.1 尺度空间理论 | 第15-17页 |
2.2.2 SIFT局部特征提取算法 | 第17-19页 |
2.3 摄像机模型及基础矩阵 | 第19-25页 |
2.3.1 参考坐标系 | 第19-21页 |
2.3.2 摄像机模型 | 第21-22页 |
2.3.3 基础矩阵与对极几何 | 第22-23页 |
2.3.4 基础矩阵数学表达 | 第23-25页 |
2.4 三角网格化技术 | 第25-26页 |
2.5 视图变形技术 | 第26-28页 |
2.5.1 平行视图变形 | 第26-28页 |
2.5.2 非平行视图变形 | 第28页 |
2.6 本章小结 | 第28-29页 |
第3章 虚拟视点合成系统的基本原理及实现 | 第29-45页 |
3.1 概述 | 第29-31页 |
3.2 特征点的处理 | 第31-35页 |
3.2.1 每张全景图特征点的获取 | 第31-34页 |
3.2.2 多张全景图重复特征点的提取 | 第34-35页 |
3.3 基础矩阵的估计 | 第35-36页 |
3.4 三角化信息的获取 | 第36-38页 |
3.4.1 多张全景图特征点平面到球面的映射 | 第36-37页 |
3.4.2 多张全景图相互之间的重匹配 | 第37-38页 |
3.5 新视点全景图位置与朝向的计算 | 第38-41页 |
3.6 目标三角面片的获取 | 第41-42页 |
3.7 三角形之间单应性矩阵的获取 | 第42-44页 |
3.8 新视点像素的计算 | 第44页 |
3.9 本章总结 | 第44-45页 |
第4章 虚拟视点合成系统的软件介绍 | 第45-51页 |
4.1 软件简介 | 第45页 |
4.2 功能展示 | 第45-48页 |
4.3 结果展示 | 第48-51页 |
第5章 实验对比与结果分析 | 第51-63页 |
5.1 对三张全景图中心位置的合成效果对比 | 第51-54页 |
5.2 对三张全景图非中心位置的合成效果对比 | 第54-57页 |
5.3 对三张非连续全景图进行合成效果的对比 | 第57-59页 |
5.4 不同原始全景图合成新视点的连续性实验 | 第59-62页 |
5.5 实验结果分析 | 第62-63页 |
第6章 总结与展望 | 第63-65页 |
6.1 全文工作总结 | 第63页 |
6.2 今后工作展望 | 第63-65页 |
参考文献 | 第65-67页 |
发表论文和参加科研情况说明 | 第67-69页 |
致谢 | 第69页 |