摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第12-23页 |
1.1 研究背景与意义 | 第12-14页 |
1.2 国内外研究现状 | 第14-19页 |
1.2.1 虚拟现实技术 | 第14-15页 |
1.2.2 增强虚拟环境 | 第15-16页 |
1.2.3 视频融合 | 第16-17页 |
1.2.4 相机标定 | 第17-19页 |
1.2.5 研究现状小结 | 第19页 |
1.3 研究目标 | 第19页 |
1.4 主要研究内容 | 第19-20页 |
1.5 技术路线 | 第20-21页 |
1.6 论文组织结构 | 第21-23页 |
第2章 视频相机在三维场景中的初始注册 | 第23-40页 |
2.1 引言 | 第23页 |
2.2 相机成像模型 | 第23-28页 |
2.2.1 坐标系定义 | 第23-24页 |
2.2.2 线性针孔模型 | 第24-26页 |
2.2.3 非线性畸变 | 第26-28页 |
2.3 三维渲染引擎中的虚拟相机成像模型 | 第28-32页 |
2.4 真实相机与虚拟三维相机的转换 | 第32-34页 |
2.4.1 相机的内参数与视锥体参数的关系 | 第32-33页 |
2.4.2 相机的外参数与观察变换函数的关系 | 第33-34页 |
2.5 虚拟场景坐标尺度对相机参数的影响分析 | 第34-35页 |
2.6 基于虚拟场景模型顶点的相机初始注册 | 第35-39页 |
2.6.1 三维控制点坐标获取 | 第35-36页 |
2.6.2 相机参数线性求解 | 第36-38页 |
2.6.3 相机参数非线性优化 | 第38-39页 |
2.7 本章小结 | 第39-40页 |
第3章 PTZ相机在三维场景中的实时注册 | 第40-53页 |
3.1 引言 | 第40页 |
3.2 基于全局特征的视频帧快速检测 | 第40-41页 |
3.3 基于局部特征的特征点提取与匹配 | 第41-45页 |
3.3.1 SURF算法 | 第41-43页 |
3.3.2 去除误匹配特征点 | 第43-45页 |
3.4 PTZ相机视频图像的实时注册 | 第45-52页 |
3.4.1 PTZ相机标定概述 | 第45页 |
3.4.2 单应性矩阵快速判断参数变化类型 | 第45-46页 |
3.4.3 外参数变化 | 第46-51页 |
3.4.4 内参数变化 | 第51-52页 |
3.5 本章小结 | 第52-53页 |
第4章 相机视频与三维场景的融合方法 | 第53-60页 |
4.1 引言 | 第53页 |
4.2 视频图像与三维场景的融合原理 | 第53-56页 |
4.2.1 确定视频图像映射区域 | 第53-54页 |
4.2.2 ShadowMap算法 | 第54-55页 |
4.2.3 Shadowmap算法的优点 | 第55-56页 |
4.3 GPU Shader编程 | 第56-57页 |
4.4 相机视频与三维场景融合的算法实现 | 第57-59页 |
4.5 本章小结 | 第59-60页 |
第5章 PTZ相机视频增强虚拟三维场景实验与分析 | 第60-70页 |
5.1 软硬件平台与实验数据 | 第60-61页 |
5.2 实验与分析 | 第61-69页 |
5.2.1 视频相机初始注册 | 第61-63页 |
5.2.2 特征匹配实验 | 第63-65页 |
5.2.3 PTZ相机实时注册 | 第65-68页 |
5.2.4 视频图像与虚拟三维场景融合算法的效果分析 | 第68-69页 |
5.3 实验小结 | 第69-70页 |
第6章 总结与展望 | 第70-72页 |
6.1 本文主要工作 | 第70页 |
6.2 未来工作展望 | 第70-72页 |
参考文献 | 第72-76页 |
致谢 | 第76页 |